Поисковая оптимизация сайта: ищем дубли страниц
Одна из самых распространённых проблем при работе с сайтом с точки зрения поисковой оптимизации — это выявление и удаление дублей страниц и других ненужных документов. Этому и будет посвящён этот вебинар. Мы научимся работать со «Статистикой обхода» и архивами загруженных страниц, которые помогают находить дубли и служебные страницы. Также составим robots.txt для документов такого типа.
Другие вебинары из серии есть в программе:
Один добрый человек подсказал, как смотреть подобное видео с увеличенной скоростью. Как же я ему благодарен!
Это был отличный вебинар! Спасибо.
Особенно объяснение про дубли страниц пагинации. Наконец все уложилось в уме по полочкам.
Спасибо за видео! Все структурировано и понятно. Ждем еще видео.
Хороший вебинар. Спасибо!
Отличная информация по дублям. Смотреть на скорости x1.25
Подскажите пожалуйста, если основная масса дублей имеет статус «Неканоническая» , как с ними работать?
Спасибо
Я страницы для печати запретил мегатегом «name=»robots» content=»noindex,nofollow»». Или лучше через robots.txt это сделать?
зачетно! пеРРРед тем )))
Видео про яндекс на сервисе гугла, ЛОЛ 🙂 Если что, у гегл поиска только первые три ссылки рекламные — весь остальной поиск — органический. У яндекса, проплаченной выдачей может быть даже 56я ссылка в поиске. Расходимся
А подскажите пожалуйста, если при поиске дублированных страниц в Яндекс Вебмастере при сортировке, нет слова Дубль — это значит что дублей нет?
возможно есть, но яндексу не известно об этом, чаще туда заглядывать и смотреть