Главная страница
qrcode

Справочник по SEO оптимизации. Справочник seo-оптимизатора Понравилась книга Поделись в соц сетях!


НазваниеСправочник seo-оптимизатора Понравилась книга Поделись в соц сетях!
АнкорСправочник по SEO оптимизации.pdf
Дата04.10.2017
Размер3.45 Mb.
Формат файлаpdf
Имя файлаSpravochnik_po_SEO_optimizatsii.pdf
оригинальный pdf просмотр
ТипСправочник
#40420
страница1 из 2
Каталогid32165310

С этим файлом связано 62 файл(ов). Среди них: SEO_dlya_biznesa.pdf, Effektivnoe_prodvizhenie_saytov.pdf, Prodvizhenie_portalov_i_internet-magazinov.pdf, 10_oshibok_pri_sbore_semanticheskogo_yadra.pdf, Rukovodstvo_po_poiskovoy_optimizatsii_ot_Google.pdf, Spravochnik_po_SEO_optimizatsii.pdf, Sergey_Potapov_-_Kak_upravlyat_proektami.txt и ещё 52 файл(а).
Показать все связанные файлы
  1   2

Используй SEO на
всю мощь!
Ultimate справочник
SEO-оптимизатора

Понравилась книга? Поделись в соц.сетях!
2
Оглавление
>
Эта книга вам пригодится, если:
Вы заказываете SEO:
1.
Ваш сайт пострадал из-за санкций поисковиков.
2.
Вы вливаете в SEO деньги, а результата нет.
3.
Ваши подрядчики разводят руками и не знают, что делать.
4.
Ваши запросы в топе, а продажи в *опе.
Вы сами делаете SEO:
1.
Ваши действия ограничиваются SEO-текстами.
2.
Вы вечно забываете про микроразметку или хлебные крошки.
3.
Вы нуждаетесь в четком алгоритме работы.
4.
Вы сделали уже все, что могли.
Для кого эта книга?

Понравилась книга? Поделись в соц.сетях!
3
Привет!
Мы –
Комплето
, комплексное агентство электронного маркетинга. Мы проповедуем системный подход к интернет- маркетингу с 1999 года и реализовали более 350 проектов для b2b
, производителей с сетями дилеров и сложным продуктом и услугой.
В своей практике мы часто сталкивались с халатной работой
SEO- подрядчиков наших клиентов, обманом и даже махинациями. Об этом мы подробно рассказали в статье для портала SeoNews:
«Антикейсы: как SEO-компании сливают бюджеты?».
Хватит это терпеть!
Мы решили пошагово рассказать, как делается качественное
SEO. Перед вами наш внутренний документ – чек-лист поискового аудита сайта. С его помощью мы проверяем сайты наших клиентов, выстраиваем этапы работ и ведем поисковую оптимизацию.
Используйте этот документ во благо, пусть он станет планом действий в вашей работе.
И да прибудет с вами комплексный поисковый маркетинг!
Кто мы и зачем написали эту книгу?
Оглавление
>

Мы работали над этим документом с первого же дня основания нашей компании в далеком 2007 году. К нему приложили руку почти все наши сотрудники (в особенности Сергей Сухоплюев – спасибо, бро!), а также коллеги по цеху. Были потрачены литры валерьянки с кофе, мы провели в обнимку с документом сотни бессонных ночей, закапывая глаза энергетиком и вставляя в них спички. Будьте человеком, ну хотя бы вместо «спасибо» расшарьте документ друзьям в социальных сетях.
Пожалуйста ;)
Так мы вместе сделаем мир лучше и более SEO- оптимизированным!
Искренне ваши, маркетинговая группа
Комплето
Понравилась книга? Поделись в соц.сетях!
4
Личная просьба…
Оглавление
>

Видеокурс по интернет-
маркетингу
Максимально системно выстроенный видеокурс по интернет-маркетингу.
Понравилась книга? Поделись в соц.сетях!
5
Изучите другие наши обучающие проекты
Оглавление
>
6 шагов для построения
системы #СЭМ
6 обучающих писем о том, как построить систему электронного маркетинга самостоятельно.
Онлайн-центр обучения
Собственный учебный центр для
России и СНГ обучает онлайн по программам
Европейской Конфедерации
Маркетинга и Нидерландского
Института Маркетинга.
Блог по интернет-маркетингу
Много полезных статей по интернет-маркетингу: стратегия, веб-аналитика, разработка, реклама и кейсы внедрения системного электронного маркетинга.

Понравилась книга? Поделись в соц.сетях!
6
1. Подготовительные работы
1.1.
Краулинг сайта
1.2. Составление матрицы сайта
2. Поисковые системы
2.1. Яндекс Webmaster, Google Search Console
2.2. Яндекс Метрика, Google Analytics
2.3. Индексация всех страниц сайта
2.4. Значимые области на Flash и Ajax
2.5. Индексация всех страниц сайта
2.6. Необходимость использования noindex, nofollow, metanoindex, metanofollow
2.7. Корректность использования тегов noindex и nofollow
2.8. Выявление ошибок: сравнение индексов по категориям и типам страниц
2.9. Индексация технических страниц
2.10. Проверка robots.txt
2.11. Проверка robots.txt на наличие директив для всех ПС
2.12. Ссылки на неиндексируемое содержимое
2.13. Кеширующие заголовки
2.14. Исправление ошибок и наличие карты sitemap.xml
2.15. Анализ проблем индексации сайта
2.16. Ранжирование
2.17.
Яндекс.Каталог
2.18. Яндекс. Справочник
2.19.
Яндекс.Адреса и Google Мой бизнес
2.20. Расширенный сниппет
2.21.
Парсинг сниппетов по всем запросам Яндекс и Google
2.22.
Сниппеты в Google
2.23. Санкции
Оглавление

3. Отсутствие нарушений лицензии на поиск
3.1. Скопированный или переписанный материал с других ресурсов, отсутствие уникального контента
3.2. Автоматическое (редирект) или добровольное
3.3. Наличие автоматически сгенерированного (бессмысленного) текста
3.4. Присутствие каталогов, статей, программ и пр.
3.5. Обнаружение страниц с невидимым или слабовидимым текстом или ссылками
3.6. Использование клоакинга
3.7. Неявный клоакинг
3.8. Использование обманных техник
3.9. Навязчивая реклама: popup, popunder, clickunder
3.10. Списки поисковых запросов в текстах страниц
3.11. Наличие немодерируемых форумов или досок объявлений
3.12. Наличие внешних ссылок
3.13. Выявление спама в тегах заголовков и title
3.14. Проверка текстов на спамность ключевых слов
3.15. Социальная активность
4. Технические факторы
4.1. Корректность использования страницы 404 4.2. Анализ 404 страницы
4.3. Проверка ответов сервера
4.4. Анализ скорости загрузки страниц
4.5. Основное зеркало (с www или без)
4.6. Настройка robots.txt
4.7. Настройка sitemap.xml
4.8. Дубли страниц
4.9. Проверка видимости сайта в браузерах
4.10. Использование микроформатов
Понравилась книга? Поделись в соц.сетях!
7
Оглавление

4.11. Корректность использования микроформатов
4.12. Учет содержимого микроформатов при индексации
4.13. Проверка кода на присутствие скриптов
4.14.
Валидация кода
4.15. Атрибуты rel="next" и rel="prev"
4.16. Использование Noindex, Nofollow
4.17. Meta name Noindex
4.18. Meta name Nofollow
5. Внутренние факторы
5.1. Видимость сайта
5.2. Страницы, которые не содержат исходящие ссылки
5.3. Уровень вложенности страниц
5.4. Выделение логических кластеров
5.5. ЧПУ
5.6. Наличие ключевых слов в доменном имени
5.7. Ключевые слова в URL
5.8. Иерархия URL-структуры сайта
5.9. Спам в URL
5.10. Длина URL
5.11 Мета-теги: title
5.12. Мета-теги: description
5.13. Проверка заголовков на спамность
5.14. Проверка наличия тегов заголовков
5.15. Стили заголовков
5.16. Оформление контента
5.17. Техническая уникальность контента
5.18. Уникальность контента
5.19. Ссылки на внешние сайты
5.20. Дублированные ссылки
5.21. Циклические ссылки
Понравилась книга? Поделись в соц.сетях!
8
Оглавление

5.22. Битые ссылки
5.23. Контекстная перелинковка
5.24. Навигационные ссылки
5.25. Сквозные ссылки
5.26. Блоки с перелинковкой
5.27. Страницы, недополучающие статистический вес
5.28. Определение распределения статистического веса при перелинковке НЧ, СЧ, ВЧ запросов
5.29. Определение распределения статистического веса в зависимости от входящих внешних ссылок
5.30. Ссылки на сторонние ресурсы
5.31. Навигационная цепочка
5.32. Контактная информация
5.33. Товары и цены
5.34. Изображения
5.35. Видео
5.36. Рейтинг
5.37. Область контента
5.38. Социальные сети
6. Внешние факторы
6.1. Параметрические характеристики домена
6.2. Узнаваемость компании в интернете
6.3. Проверка ссылочной массы на наличие качественных
(трастовых) обратных ссылок
6.4. Проверка возрастных характеристик страниц сайта
6.5. Получение ссылок из разных источников
6.6. Соотношение реального количества ссылок
6.7. Данные по ссылкам
6.8. Динамика изменения ссылочной массы
6.9. Индексация страниц-доноров
6.10. Естественность ссылочного профиля
Понравилась книга? Поделись в соц.сетях!
9
Оглавление

6.11. Ссылочный профиль конкурентов
6.12. Социальные сигналы
7. Коммерческие факторы
8. Семантическое ядро и трафик
8.1. Анализ семантического ядра
8.2. Анализ трафика
8.3. Анализ видимости сайта
8.4. Долевое распределение трафика по разным каналам интернет- маркетинга
9. Поведенческие факторы
10
. Фильтры, АГС, антивирусованность
10.1. Минусинск
10.2. АГС
10.3. Вирусы
10.4. Другие фильтры
Понравилась книга? Поделись в соц.сетях!
10
Оглавление

Понравилась книга? Поделись в соц.сетях!
11
1.1.
Краулинг сайта
Это процедура анализа веб-страниц:

общего процесса загрузки сайта;

текстов;

ссылок, в том числе и обнаружение "битых ссылок", которые никуда не ведут, созданных с ошибками;

изменений на сайте;

проверка синтаксиса и структуры сайта;

специализированный поиск;

и пр.
Сервисы в помощь:

Xenu

Netpeak Spider

Comparser
1.2. Составление матрицы сайта
Это помогает увидеть повторы страниц, определить структуру сайта.
Что необходимо сделать:

пропишите матрицу HTML документов;

отсортируйте страницы по категориям, например: каталоги, теги, карточки товаров, служебные страницы (контакты, информация о компании и пр.).
Сервисы в помощь:

Xenu

Netpeak Spider

Comparser

Xmind
1. Подготовительные работы
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
12
2.1. Яндекс Webmaster, Google Search Console
Проконтролируйте, чтобы ваш сайт находился в панели Яндекс.
Webmaster и Google Seach Console.
При этом важно учесть:
• в Яндекс.Webmaster - автоматические санкции;
• в Google Seach Console - ручные ограничения.
Сервисы в помощь:
• beta.webmaster.yandex.ru
• www.google.com/webmasters/tools/home?hl=ru
2.2. Яндекс Метрика, Google Analytics
Установите счетчики и проверьте, что все работает верно.
Сервисы в помощь:
• metrika.yandex.ru
• analytics.google.com/analytics
2. Поисковые системы
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
13
2.3. Индексация всех страниц сайта
Особенно актуальна для крупных и сложных проектов. Сайт может провисать или не получать полноценный трафик, если вместо важных страниц индексируются мусорные: дубликаты, страницы с ошибками или пустые.
Сформируйте списки из 3-х категорий:
• все важные страницы: выгрузка из БД, ручное составление;
• все страницы: PageWeight или Xenu;
• все проиндексированные важные страницы, все проиндексированные мусорные, все непроиндексированные важные страницы и все непроиндексированные мусорные.
Сервисы в помощь:

для массовой проверки:
seolib.ru/tools/links/metrics/

для единичных страниц: webmaster.yandex.ru
2.4. Значимые области на Flash и Ajax
Некорректная индексация некоторых областей сайтов часто встречается, если при их верстке использовались Flash, Ajax или другие технологии.
Детальную инструкцию по индексированию сайта читайте здесь:
https://help.yandex.ru/webmaster/robot-workings/ajax-indexing.xml
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
14
2.5.
Индексация всех страниц сайта
Что нужно сделать:
Проверить, чтобы все страницы сайта индексировались после того, как вы внесете изменения в robots.txt.
Сервисы в помощь:
• webmaster.yandex.ru/robots.xml
2.6.
Необходимость использования noindex, nofollow,
metanoindex, metanofollow
Что нужно сделать:
• Проверить сайт через RDS-bar и СайтРепорт;
• Исправить не закрытые теги ;
• Изучить закрытые внутренние и внешние ссылки в nofollow, metanoindex и metanofollow.
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
15
2.7.
Корректность использования тегов noindex и nofollow
Проверьте, чтобы на страницах сайта, скрытых от индексации, не было ошибок.
Что нужно проверить:
• Закрытость тегов ;
• Корректность страниц с meta nofollow, meta noindex, name="robots" content="none"/>;
• Тег на внутренних ссылках.
2.8.
Выявление ошибок: сравнение индексов по категориям и
типам страниц
Что нужно сделать:
• Сравнить списки страниц, которые отличаются по их количеству в индексе, в нескольких поисковых системах. Если несовпадение на 30% и больше, то причину нужно найти и устранить ее;
• Посмотреть количество проиндексированных страниц в Яндекс и
Google с помощью запроса «site:host»;
• Изучить области сайта, где в одной ПС страниц меньше, чем в другой;
• Открыть страны из списка проиндексированных;
• Изучить те страницы, которые есть в одной ПС, но нет в другой;
• Проанализировать в Google помеченные как supplimental страницы.
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
16
2.9.
Индексация технических страниц
Существуют технические страницы, которые необходимо закрыть от индексации:
• Файлы статистики /*_openstat
• Страницы контекстной рекламы или меток /*from=adwords,
/*utm_source=, /*utm_campaign=, /*utm_content=, /*utm_term=,
/*utm_medium=
• Корзина /cart/, /order/
• Страницы сортировки /*sort, asc, desc, list=*
• Страницы поиска /search/
• Страницы авторизации /auth/
• Версия для печати /*printable, /print
• Напоминание пароля /remind_password/
• Регистрация /register/
• Административный раздел /administrator/
• Кэш страниц /cache/
• Модули, подгружаемые на страницы /components/, /plugins/
• Файлы-инсталляции CMS /installation/, /installer/
• Логи /logs/
• Файлы /files/
• Скрипты, таблицы стилей /ajax/, /java/, /css/
• Аккаунты пользователей /user/
Иногда возникают сложности с удалением или запретом в robots.txt, тогда нужно указать основную страницу через rel="canonical".
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
17
2.10.
Проверка robots.txt
Некорректная работа в robots.txt в результате может привести к тому, что сайт исключат из индексации. Нужно проверить корректность работы robots.txt, чтобы все ненужные для индексирования страницы были закрыты.
Сервисы в помощь:
• webmaster.yandex.ru/robots.xml
Правила соответствия robots.txt:
• help.yandex.ru/webmaster/?id=996567
2.11.
Проверка robots.txt на наличие директив для всех ПС
Помните, что для Google и Яндекс необходимо прописывать отдельные инструкции, т.к. они используют разные директивы: User-Agent: Yandex +
User-Agent.
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
18
2.12.
Ссылки на неиндексируемое содержимое
Поисковые роботы просматривают все ссылки сайта (html-документы, ссылки картинок, mp3-файлы и др.). Нужно закрыть эти ссылки в rel=‖nofolloww‖, чтобы сэкономить ресурс робота.
Примеры содержимого: doc, docx, xls, mp3, wav … и т.д.
Не закрывайте текстовые документы (pdf, doc и т.д.) от индексации, если на них идет органический трафик с ПС.
Сервисы в помощь:

Xenu
2.13.
Кеширующие заголовки
Используются для того, чтобы помочь поисковому роботу направить свои ресурсы на нужные страницы (например, на те, которые менялись с момента его последнего посещения). Для этого в спецификации протокола http есть набор кеширующих заголовков:
• Last-Modified - If-Modified-Since - 304 Not Modified или 200 OK;
• ETag - If-None-Match - 304 Not Modified или 200 OK.
Что нужно сделать:
• Выбрать несколько случайных страниц веб-сайта;
• Просмотреть Firebug’е в разделе Net фильтре Htmlhttp заголовки для тестируемой страницы;
• Убедиться в наличии Last-Modified или Etag;
• Обновить страницу F5. Сервер должен ответить 304 кодом (там же в firebug’е). Если не отвечает, обратиться к веб-мастеру.
Оглавление
>

Понравилась книга? Поделись в соц.сетях!
19
2.14.
Исправление ошибок и наличие карты sitemap.xml
Чтобы управлять индексацией сайта, повысив степень доверия ПС к рекомендациям и корректной их обработки, воспользуйтесь sitemap.xml.
Что нужно сделать:
• Проверить, что robots.txt ссылается на sitemap.xml;
• Уточнить, верно ли расставлены атрибуты дат;
Проставить корректные приоритеты;
• Исключить уже проиндексированные страницы;
• Открыть все страницы для индексации в robots.txt;
• Исключить нарушения валидности составления sitemap.xml.
Если у вас нет карты sitemap.xml, обязательно создайте ее!
Сервисы в помощь:
• webmaster.yandex.ru/sitemaptest.xml
• Справка: www.sitemaps.org/ru/faq.html#faq_xml_schema
Оглавление
>

2.15.
Анализ проблем индексации сайта
Часто бывает, что поисковый робот загружает больше страниц, чем добавляет в свой индекс. Это случается из-за того, что некоторые страницы не подходят под стандарты качества индексируемого материала, что значительно влияет на занимаемые сайтом позиции.
Что нужно сделать:

Добавить сайт в панель Яндекс.Вебмастер;

Посмотреть строки «Загружено роботом» и «Исключено роботом» во вкладке «Общая информация»;

Сообщить веб-мастеру, если количество исключенных роботом страниц половина (и больше).
Понравилась книга? Поделись в соц.сетях!
20
Оглавление
>

2.16. Ранжирование
Проанализируйте популярные запросы - на каких позициях в поисковых системах они находятся. Причем проверить по возможности нужно все запросы: НЧ, СЧ, ВЧ.
Сервисы в помощь:

http://top-inspector.ru

http://seranking.ru

key collector

https://www.megaindex.ru

https://topvisor.ru
Понравилась книга? Поделись в соц.сетях!
21
Оглавление
>

2.17.
Яндекс.Каталог
Что нужно сделать:

Указать у сайта принадлежность к необходимому региону в
Яндекс.Каталоге.
2.18.
Яндекс. Справочник
Если ваша компания имеет филиалы, представительства или точки продаж в разных городах, то обязательно нужно добавить все адреса, указав их через панель Яндекс.Вебмастер. Проверьте, какие регионы уже добавлены в качестве ваших представительств в Яндекс.Справочнике. Сайт будет занимать высокие позиции в ПС, если присвоить ему тот регион, где будет вестись наибольшая активность.
Что нужно сделать:
• Добавить сайт в Яндекс.Вебмастера;
• В разделе География сайта выбрать Регион сайта;
• Проверить регион. Если регион присвоен неверно, нужно составить список рекомендаций по изменению региональной привязки.
Понравилась книга? Поделись в соц.сетях!
22
Оглавление
>

2.19.
Яндекс.Адреса и Google Мой бизнес
Правильная работа с этими сервисами помогает успешно продвинуть сайт в
ТОП поисковой выдачи. Важно, учитывать особенности каждой из них при добавлении информации о компании.
Сервисы в помощь:

sprav.yandex.ru

www.google.ru/business
Понравилась книга? Поделись в соц.сетях!
23
Оглавление
>

2.20.
Расширенный сниппет
В некоторых тематиках есть возможность использования расширенных сниппетов. Например, для e-commerce, сайты с рецептами, отзовики, интернет-магазины и пр.
Что нужно сделать:

Указать в микроразметке информацию, которую вы хотите выводить в выдаче ПС.
Понравилась книга? Поделись в соц.сетях!
24
2.21.
Парсинг сниппетов по всем запросам Яндекс и Google
Сниппеты – фрагмент исходного текста или кода программы, применяемый в поисковых системах, текстовых редакторах и средах разработки. Они значительно влияют на конверсию сайта в выдаче (по исследованиям
Яндекса). Необходимо спарсить по всем запросам сниппеты Яндекса и
Google (A-Parser).
Оглавление
>

2.22.
Сниппеты в Google
Нужно проанализировать все части сниппета, чтобы они сформировались правильно:
• Человекопонятные URL;
• Отзывы в формате hReview;
• Title, анкоры ссылок, тексты страниц;
• Обозначение авторства контента по формату hCard;
• Содержимое сайтов в формате hProduct и GoodRelations;
• Мероприятия в формате hCalendar;
• Адрес в hCard;
• Хлебные крошки в Breadcrumb;
• Description, описание в каталоге DMOZ.
Если сниппет сформирован некорректно, необходимо его исправить.
Понравилась книга? Поделись в соц.сетях!
25
2.23.
Санкции
Перед запуском продвижения обязательно проанализируйте сайт, изучите его историю. Особенно, если сайт уже оптимизировали другие специалисты.
На что обратить внимание:
• Возраст сайта (не дата регистрации домена, а индексации);
• Были ли наложены санкции или ограничения Яндекса;
• Был ли сайт ограничен в выдаче Google (автоматические фильтры
Panda, Penguin и пр.);
• Ссылочная история сайта.
Сервисы в помощь:

feinternational.com/website-penalty-indicator

xtool.ru

ru.semrush.com

advisor.wmtransfer.com/Description.aspx

www.alexa.com

ru.ahrefs.com

archive.org/web

whoishistory.ru/simplesearch?domainsimple
Оглавление
>

3.1.
Скопированный или переписанный материал с других
ресурсов, отсутствие уникального контента
Чтобы проверить сайт на наличие неуникальной информации, воспользуйтесь программами AdvegoPlagiatus или Etxt Антиплагиат/
Что нужно сделать:
• Запустить программу Etxt Антиплагиат;
• Выбрать пункт меню Операции > Настройки;
• Нажать на пункт меню «Операции > Проверка сайта...»;
• В поле Укажите адрес ввести адрес проверяемого сайта;
• Написать необходимое для проверки количество страниц. Для начала можно выбрать 50, а потом, сопоставляя URL-адреса с контентом страниц, оставить те, которые содержат больше текста;
• Из всего списка загруженных страниц снять галочки с тех, которые содержат дублирующий контент или где мало текста
(например, новости компании, контакты, разделы с описание товара в интернет-магазинах часто состоят всего из нескольких предложений).
Таким образом, у вас останется 10-30 страниц;
• Нажать на кнопку Глубокая проверка;
• Составить список рекомендаций по исправлению.
Понравилась книга? Поделись в соц.сетях!
26
3. Отсутствие нарушений лицензии на поиск
Оглавление
>

3.2.
Автоматическое (редирект) или добровольное
Редирект чаще встречается на дорвеях, реже – на клиентских сайтах. Если у вас небольшой сайт (не больше 5000 страниц), проверьте его при помощи программы Xenu’sLinkSleuth.
Что нужно сделать:
• Запустить программу Xenu;
• Выбрать пункт меню File > Check URL...;
• В поле What address do you want to check ввести адрес вашего сайта и нажать ОК;
• После сканирования на вопрос Links leuth finished. Do you want a report
? Ответить: YES;
• Отклонить предложение о поиске незалинкованных файлов
Orphanfiles, нажав кнопку Cancel;
• В браузере откроется отчет, в оглавлении Table of contents выбрать
«List of redirected URLs и просканировать редиректы со страниц сайта на внешние ресурсы.
3.3. Наличие автоматически сгенерированного
(бессмысленного) текста
Этот метод поисковой оптимизации был очень популярен в начале 2000-х.
Сейчас его можно встретить, но редко. Тем не менее, необходимо убрать такой текст, если он присутствует.
Что нужно сделать:

Выбрать 40-50 страниц с разных разделов;

Проанализировать их адекватность и релевантность тематики сайта;

При обнаружении неподходящие тексты, дать задания по их корректировке или удалению.
Понравилась книга? Поделись в соц.сетях!
27
Оглавление
>

3.4.
Присутствие каталогов, статей, программ и пр.
Этот пункт подходит для тех сайтов, которые являются только агрегаторами контента (не производят свои уникальные тексты и сервис). Найти такие каталоги, статьи, программы из навигационного меню не получится.
Поэтому в первую очередь проверьте количество исходящих ссылок домена: если их больше 10 и текст на них соответствующий (широкий тематический диапазон сайтов-получателей ссылок и рекламный характер ссылочного текста), то проведите скрупулезный анализ, например, с помощью программы PageWeight.
Что нужно сделать:
• Запустить программу PageWeight;
• Ввести доменное имя в поле Адрес сайта;
• Проставить галочки в чекбоксах Игнорировать теги и
Игнорировать rel=‖nofollow‖;
• Указать идентичную исходному варианту кодировку сайта;
• Нажать Начать;
• Когда сканирование завершиться, перейти во Внешние ссылки и изучить, на каких страницах сайта они находятся. Как показывает практика, у каталогов статей, компаний и пр. есть общая повторяющая часть URL-адреса, например — http://domain.ru/partners/.
Понравилась книга? Поделись в соц.сетях!
28
Оглавление
>

3.5.
Обнаружение страниц с невидимым или слабовидимым
текстом или ссылками
Еще недавно такие тексты размещали, чтобы обмануть поискового робота.
Сегодня так уже не работают. Но конкуренты или недоброжелатели могут использовать невидимый текст для того, чтобы попытаться подвести ваш сайт под санкции. А невидимые ссылки появляются, когда кто-то продает их скрытно, чаще всего за спиной у владельца сайта. Бывает, что в скрытую область через CSS и JavaScript попадают важные тексты. А из-за присутствия невидимых или спамных ссылок поисковики могут выбить сайт из индексации.
Что нужно сделать:
• Провести анализ html-кода страницы и найти скрытый текст;
• Изучить все страницы сайта при помощи команды ctrl+A;
• Установить WebDeveloper (для браузера Firefox);
• Установить Wink;
• Через Сайт Репорт определить внешние ссылки.
3.6.
Использование клоакинга
Это методика, при которой поисковый робот видит оптимизированную страницу, а обычному пользователю показывается другая. Часто страницы не просто оптимизированы, а в корне отличаются от оригинала. Это еще один способ обмана поисковых роботов, который зачастую приводит к падению рейтинга сайта.
Что нужно сделать:
• Сопоставить кеш страницы с текущей версией;
• Сверить содержание страницы с ее копией в СайтРепорт;
• Настроить поиск клоакинга во внешних ссылках;
• Проанализировать тексты на предмет обнаружения клоакинга.
Понравилась книга? Поделись в соц.сетях!
29
3.7.
Неявный клоакинг
На сайте может присутствовать неявный клоакинг - когда это делается сторонними людьми, без ведома веб-мастера и администратора ресурса.
Методика проверки та же, что и у обычного клоакинга.
Оглавление
>

3.8.
Использование обманных техник
Это может быть: вредоносный код, такие настройки серверов, которые автоматически перенаправляют пользователей на сторонние ресурсы или при переходе из ПС меняют окно результатов поиска на страницы других ресурсов. На сайте их можно заметить по тегу
  1   2

перейти в каталог файлов


связь с админом