Добро пожаловать на блог системного администратора.
Озадачился я комментарием у себя на блоге, про битые ссылки. У меня и раньше появлялись мысли, что не все так хорошо, как кажется. Особенно, глядя на страничку посетители сайта и видя, что какая-то страница не найдена. Пару раз мне приходилось срочно делать редирект в файле .htaccess, после публикации. Но тогда я грешил на ресурс, на котором ставил пресс-релиз.
Ошибку с отсутствием файлов в wp-includes\js\tinymce\... искал дольше всего. Потом просто тупо один создал пустым, а второй переименовал похожий. Хотя подумываю, что надо чем-то заменить этот самый tinymce. Пока до этого просто не дошли руки, да и ошибку закрыл.
Google и Яндекс вывели мне списки ненайденных страниц. Что интересно, у каждого свой список и они совсем не похожи. Это меня огорчило, честно говоря. Было бы проще искать и устранять. Где Google нарыл такие страницы, пока для меня осталось загадкой.
Следующая проблема открылась, пока я редактировал статьи в поисках несуществующих ссылок. WordPress автоматически старательно сохранял все старые варианты статей. Раньше был такой плагин, делающий черновики, а теперь это в самом движке. Отключается ревизия так – откройте файл настроек /wp-config.php и вставьте туда такую строчку: define('WP_POST_REVISIONS', 0);
Вот только уже существующие копии надо удалять или ручками в базе или можно воспользоваться плагином DelRevision.
Подредактировал файл robots.txt, от всяких возможных дублей страниц. У меня настроены человеческие названия статей через ЧПУ и стандартные короткие ссылки в поисковиках могут только занижать рейтинг. Как и ссылки двевовидных комментариев.
Disallow: /*?replytocom
Disallow: */?p*,
Осталось понять, где ссылка из одной статьи на файл wp-comments-post.php. Причем из комментариев. Где возможно поправил, почистил и решил пока отложить проблему. Между делом ищу информацию по этому вопросу в интернете.
Вот такое вот увлекательное занятие, оптимизировать свой сайт, особенно будучи СисАдмином.
Я роботс тикст писала сама: намучилась с этими дублирующими страницами, до сих пор не знаю - все ли учла.
А вот ссылками у меня проблема. Ссылки у меня короткие, стандартные для вордпресса. Если перейти на такие, как у вас, я потеряюсь для поисковиков????
Поисковикам не важно, какие ссылки. Но они считают плюсом, если ссылка читабельна людям. И включая ЧПУ (прописывая то, что хочется), стандартные остаются в любом случае.
Моя вчерашняя попытка поставить для поисковиков Disallow: */?p* , вызвало бурные возмущения у Google, в виде надписей красным цветом.
У меня была попытка сменить ссылки на читаемые, в результате - куча битых ссылок. Пришлось отказаться
Странно... А я исключила главную Disallow: /?paged/
Запрещать все вподряд не надо. Включая ссылки через ЧПУ, страницы должны продублироваться. т.е. нормальночитаемая и ?p=*
Битые ссылки то откуда взялись? У меня такой robots.txt
Disallow: /?p=*
Disallow: /cgi-bin/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /wp-admin/
Disallow: /wp-content/themes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /awstats/
Disallow: /?replytocom=*
Disallow: /*?replytocom
Disallow: /trackback/
Disallow: /feed/
По поводу битых ссылок, я тоже писал статью как избавится от дублей, когда яша про индексировал, и выдает в индекс ссылки не правильные а произошло это из за смены ЧУП .. автар прости но вот ссылка кому интерестно http://ylianova.ru/seti-i-internet/ispravlyaem-nepravilnyie-ssyilki-v-yandekse.html
Посмотрел, там не ЧПУ, а изменение пути. Кстати, с помощью ЧПУ можно было исправить!