Skip to content

Commit

Permalink
Merge pull request #25 from Ichinya/dev
Browse files Browse the repository at this point in the history
Обработка ошибок 404 + несколько статей
  • Loading branch information
Ichinya authored Sep 24, 2022
2 parents b6c2e45 + 76c4038 commit 0eaf3dd
Show file tree
Hide file tree
Showing 25 changed files with 673 additions and 293 deletions.
1 change: 1 addition & 0 deletions docs/info/sanctions/README.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,7 @@
---
title: Санкции
description: Санкции от поисковых систем
icon: solid fa-poo
index: false
---

Expand Down
35 changes: 35 additions & 0 deletions docs/info/sanctions/google/README.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,35 @@
---
title: Санкции Google
icon: brands fa-google
author:

- name: DrMax.su
url: https://drmax.su/

category: Google
tag: [Google, Поисковые системы, Санкции поисковых систем]

---

# Санкции Google

Система санкций Google несколько отличается от [Яндекса](/info/sanctions/yandex/). Здесь можно условно разделить санкции на два вида: «меры, принятые вручную» (обычно такие санкции затрагивают лишь часть страниц сайта) и санкции, которые встроены непосредственно в алгоритм ранжирования Google.

## Фильтры

* **Panda** с февраля 2011. Отслеживает: дубликаты контента, плагиат, переспам ключевыми словами, спам-контент.
* **Penguin** с апреля 2012. Отслеживает: ссылочный спам, ссылки с нерелевантных сайтов, ссылки с ссайтов соштрафами, «ядовитые» ссылки, ссылки с переоптимизированными анкорами.
* **Hummingbird** (**Колибри**) с августа 2013. Отслеживает: некачественный контент и избыток ключевых слов в документе (переспам).
* **Pigeon**, июль - декабрь 2014. Отслеживает: некачественное on и off - site SEO, влияющее на региональную выдачу.
* **Mobilegeddon**, с апреля 2015. Отслеживает: «неадаптивность» или отсутствие мобильной версии сайта.
* **RankBrain** с октября 2015. Отслеживает: релевантность запросов контенту, штрафует за некачественное или бесполезное содержание, понижает в выдаче сайты с неудобным пользовательским интерфейсом (User Experience Design).
* **Possum** с сентября 2016. Отслеживает: некачественный и спамный контент в локальной выдаче. Убирает монополию компаний в результатах локального поиска (1 компания - 1 место в выдаче, вместо нескольких страниц одной компании).
* **Fred** с март 2017. Отслеживает: избыточность рекламы, сайты созданные исключительно с целью продвижения услуг третьих лиц (аффилированность) и не несущие дополнительной полезной информации.

## Упор на качество сайтов

C 2017 года основной упор Google при выкатывании новых алгоритмов ранжирования делает на качество сайтов. Обновление алгоритмов Google, например прошедший в агусте 2018 года (Medic Update), показало, как Google может легко разрушить любой онлайн бизнес, который не соответствуеь представлениям Google о качестве сайтов. Оптимизаторы, годами работающие над медицинскими, финансовыми, ЗОЖ сайтами, сайтами связанными с электронной коммерцией, и применяющие «сомнительные» методы продвижения в одночасье остались без трафика, без посетителей, без денег. Реальный бизнес из за недобросовестных оптимизаторов утерял большую часть новых клиентов, что привело к снижению прибыли и даже к закрытию ряда компаний.

Все это было вызвано тем, что сайты формально отвечали требованиям алгоритмов ранжирования Google, но не требованиям пользователей. На этих сайтах оптимизаторы показали все свое мастерство SEO оптимизации, при этом недостаточно вложились в их полезность для конечных пользователей.

Сегодня есть практические методы восстановления сайтов, потерявших трафик в результате медицинского обновления. Но все они потребуют от вас большой работы по совершенствованию самой сути вашего интернет проекта.
27 changes: 27 additions & 0 deletions docs/info/sanctions/google/fred.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,27 @@
---
title: Фильтр Fred
author:

- name: DrMax.su
url: https://drmax.su/

category: Google
tag: [Google, Fred, Поисковые системы, Санкции поисковых систем]

order: 8

---

# Фильтр Fred

**Дата запуска**: март 2017

**Отслеживает**: избыточность рекламы, сайты созданные исключительно с целью продвижения услуг третьих лиц (аффилированность) и не несущие дополнительной полезной информации.

## Как работает

Наиболее пострадали сайты, активно монетизируемые владельцами с низким качеством контента. Также произошло дальнейшее ужесточение алгоритма по отслеживанию некачественных ссылок.

## Что делать

Провести анализ ссылочного профиля. Провести аудит качества контента вашего сайта. Ответить на вопрос, приносит ли ваш сайт добавочную пользу посетителям. Снизить рекламные предложения на сайте, отказаться от сомнительных партнерок. Рекомендую в очередной раз перечитать «Рекомендации Google по обеспечению качества веб-сайтов» и проверить соответствует ли сайт стандартам Better Ads.
35 changes: 35 additions & 0 deletions docs/info/sanctions/google/hummingbird.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,35 @@
---
title: Фильтр Hummingbird (Колибри)
author:

- name: DrMax.su
url: https://drmax.su/

category: Google
tag: [Google, Hummingbird, Поисковые системы, Санкции поисковых систем]

order: 3

---

# Фильтр Hummingbird

**Дата запуска**: август 2013

**Отслеживает**: некачественный контент и избыток ключевых слов в документе (переспам).

## Как работает

Алгоритм «Колибри» позволяет интерпретировать естественный язык и ранжировать страницы, даже если в текст не включены поисковые запросы. Это достигается использованием алгоритмов опирающихся на латентные семантические индексы, использование синонимов и похожих терминов. Отслеживает «естественность» текстов и штрафует за переспам ключевыми словами.

## Что делать

Использовать контент, написанный естественным языком.

Не допускать избыточного использования ключей.

С введением этого алгоритма в среде оптимизаторов стала модна аббревиатура LSI – латентное семантическое индексирование, которое предполагает, что поисковый робот выделяет из текста не отдельные фразы, часто встречающиеся среди вводимых в поисковую строку, а выбирает тематику страницы на основании комплекса используемых на ней слов, включая словоформы, синонимы и близкотематические фразы.

Именно поэтому стоит широко внедрять синонимы и связанные выражения с ключевыми словами. Более тщательно подходить к работе с ключевыми словами, опираться на «подсказки» выдачи поисковых систем, которые отлично показывают связанные с ключом запросы.

Алгоритм породил множество сервисов, связанных с подбором LSI – ключей для расширения семантического ядра вашего сайта в нужном направлении. Осталось дело только за качественным журналистом - копирайтером.
26 changes: 26 additions & 0 deletions docs/info/sanctions/google/mobilegeddon.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,26 @@
---
title: Фильтр Mobilegeddon
author:

- name: DrMax.su
url: https://drmax.su/

category: Google
tag: [Google, Mobilegeddon, Mobile, Поисковые системы, Санкции поисковых систем]

order: 5

---

# Фильтр Mobilegeddon

**Дата запуска**: апрель 2015
**Отслеживает**: «неадаптивность» или отсутствие мобильной версии сайта.

## Как работает

Алгоритм вычищает и серьезно понижает в основной выдаче сайты без «мобильной» версии. Кроме того, в мобильной выдаче в ТОП выводятся только «мобильные» версии сайта.

## Что делать

Внедрить шаблон с респонсивной версткой (резиновой) или адаптивной версткой (отдельная версия сайта под мобильные устройства). Далее необходимо провести ряд работ: оптимизировать скорость загрузки страниц сайта, сделать загрузку всех скриптов ассинхронным, оптимизировать размеры и вес изображений, использовать кэширование сайта. Для проверки мобильности вашего ресурса используйте инструмент от Google. Кроме того, если динамического контента на странице мало, рекомендуется использование AMP страниц.
43 changes: 43 additions & 0 deletions docs/info/sanctions/google/panda.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,43 @@
---
title: Фильтр Panda
author:

- name: DrMax.su
url: https://drmax.su/

category: Google
tag: [Google, Panda, Поисковые системы, Санкции поисковых систем]

order: 1

---

# Фильтр Panda

**Дата запуска**: февраль 2011

**Отслеживает**: дубликаты контента, плагиат, переспам ключевыми словами, спам-контент.

## Как работает?

Панда оценивает «качество» документов сайта (страниц) и присваивает некий балл, используемый впоследствии как один из факторов ранжирования. Первоначально алгоритм «Панда» был фильтром, но с 2016 года он стал составной частью основного алгоритма ранжирования. Вследствие этого штрафы (пессимизация) некачественного и переспамленного контента проводится значительно быстрей.

Google Panda был разработан как алгоритм борьбы с текстовым спамом и некачественным контентом, а также с некачественными сайтами в целом. В ходе эволюции алгоритма стало известно, что данный алгоритм понижает позиции сайтов, которые:

* содержат копированный контент с других сайтов;
* искусственно разбивают одну публикацию на несколько и заставляют пользователей постоянно нажимать «Следующая часть статьи», чтобы получить весь контент полностью;
* содержат контент сотен разных тематик (контент-фермы);
* некорректно работают технически, или регулярно недоступны, или содержат много технических ошибок;
* содержат низкокачественный контент. При этом даже опечатки входят в признаки низкого качества текста для «Панды»;
* содержат машинно-сгенерированный контент. Гугл умеет распознавать генерацию спамерских «уникальных текстов» с помощью марковских алгоритмов, вариаций синонимов и т. п.;
* имеют большой показатель отказов - сигнал низкого качества контента или его нерелевантности;
* являются входом в «партнёрки» (то есть сайты, которые созданы специально для заработка на партнёрских программах);
* имеют предупреждения о безопасности и другие сообщения об ошибках;
* имеют плохой дизайн и юзабилити. Это субъективная метрика, но сайт, на котором пользователь из-за дизайна не может легко получить нужный контент (как и поисковый робот), однозначно будет считаться плохим;
* не имеют оптимизации под поисковые системы (например, пустые метатеги и заголовки страниц).

Алгоритм Panda постоянно обновляется (в среднем около одного раза в месяц), но официальная информация об обновлениях уже давно не публикуется. Ваш сайт может быть затронут «Пандой» именно в очередное обновление алгоритма - об этом будет сигнализировать резкое падение трафика. Следите за отраслевыми СМИ и сообществами веб-мастеров - обычно в течение пары дней после апдейта о нём становится известно исследователям и оптимизаторской общественности.

## Что делать?

Необходимо избавиться от спамного контента и дубликатов контента. Дубликаты можно отловить используя Screaming Frog SEO Spider, просканировав сайт и проверив title и description. Далее необходимо избавится от спамного контента (неинформативного, генерированного, заимствованного и пр.), снизить плотность вхождения ключей, избавиться от явного акцентирования текста на коммерческих ключах, проверить структуру хеддингов, переписать title и description в сторону уменьшения вхождения ключей. Так же избавляемся от неуникального контента, уникализируем изображения.
27 changes: 27 additions & 0 deletions docs/info/sanctions/google/penguin.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,27 @@
---
title: Фильтр Penguin
author:

- name: DrMax.su
url: https://drmax.su/

category: Google
tag: [Google, Penguin, Поисковые системы, Санкции поисковых систем]

order: 2

---

# Фильтр Penguin

**Дата запуска**: апрель 2012

**Отслеживает**: ссылочный спам, ссылки с нерелевантных сайтов, ссылки с ссайтов соштрафами, «ядовитые» ссылки, ссылки с переоптимизированными анкорами.

## Как работает?

Отслеживает явное манипулирование ссылочным профилем сайта. Наказывает пессимизацией в выдаче за некачественное и неестественное ссылочное. С 2016 года стал составной частью алгоритма поисковой системы, поэтому работает не апдейтами, а в режиме реального времени.

## Что делать

Прекратить закупать дешевые нестественные ссылки, по которым нет и не может быть никаких кликов (сайты с минимальным трафиком). Необходимо провести аудит ссылочного профиля (выгрузив ссылки из вебмастера гугла), отказаться от «неестественных» ссылок с обилием ключей в анкоре, от ссылок с «некачественных» сайтов, от дублей ссылок с одной страницы, от сквозных ссылок и пр. При невозможности удаления таких ссылок обязательно сделать Disavow Links (отклонение ссылок) в Search консоли Гугла (вебмастере). Очень удобно делать список отклоняемых ссылок непосредственно в SemRush, Majestic (если есть у вас доступ). Так-же есть инструменты - помощники для аудита ссылочного профиля, например SEO SpyGlass. Однако наиболее правильно - выполнить аудит ссылочного профиля самостоятельно.
Loading

1 comment on commit 0eaf3dd

@vercel
Copy link

@vercel vercel bot commented on 0eaf3dd Sep 24, 2022

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Successfully deployed to the following URLs:

seo-recipes – ./

seo-recipes-git-main-ichinya.vercel.app
seo-recipes.ru
seo-recipes-ichinya.vercel.app

Please sign in to comment.