Встречу как всегда ведет John Mueller - аналитик трендов вебмастеров! Джон подготовил вопросы для обсуждения заранее, что было очень кстати, т.к. в нужный момент виджет вопросов и ответов перестал работать.

Видео встречи:

Вопросы по поисковой оптимизации сайтов которые выделил я:

В: У моего вебсайта новая запись в robots.txt которая была добавлена в апреле 2015. В этом месяце мы увидели отчет в админке гугл, который говорит, что страницы наконец были заблокированы. Почему так получилось?
О: В основном мы посещаем файлы robots.txt каждый день, но иногда чаще, иногда и реже. Поэтому вы должны увидеть изменения на следующий день или в течении нескольких дней. Мы перестаем посещать блокированные и начинаем посещать разблокированные. В результатах поиска вы все еще сможете видеть заблокированные страницы, но без тайтла с дескрипшеном. Если вы хотите удалить их из выдачи используйте noindex.

В: Вопрос на тему поисковой аналитики. Мой сайт показывается на позиции 3.5. Если бы это было правдой я бы видел много трафика. Результаты поиска картинок часть ранжирования?
О: Да. Возможно это была персонализация поиска.... специфическое место, страна, поисковый запрос может быть популярный, но показываться вы будете очень редко.

В: У меня лэндинг пэйдж с высоким рангом, но продукт я больше не продаю. Я разместил другой продукт на страницу. Но страница вылазит по старым кеям а не по новым. Что посоветуете?
О: Если у вас нет продукта больше, то есть смысл сделать эту страницу 404. Тогда мы сможем сфокусироваться на других ваших страницах. Если вы продаете эквивалентный продукт, то можете редиректить на нужную страницу. Иначе, в зависимости от ранжирования старого сайта, это займет немного времени.

В: Какие 5 самых страшных ошибок в SEO с точки зрения Google?
О: Случайный noindex самая большая ошибка которая может произойти. Ошибки в robots.txt , если мы не можем зайти на страницу, то не можем ранжировать ее правильно.

В: Если я хочу, чтобы особые страницы сайта были более важны для Google, мне нужно ссылаться на них чаще с других страниц? Что посоветуете?
О: Если вы считаете, что что-то более важно то должны сделать это ясным. Когда люди посещают сайт, они должны распознавать это. Могут быть ссылки с домашней страницы или с похожих страниц. Это поможет пользователям и поисковой системе.

В: Наш сайт собирает обзоры и рейтинги. Я читал в руководстве Google, что нужно отображать все обзоры на одной странице. Страницы получаются тяжелыми. Можно ли использовать pagination?
О: Да.

В: Что делать и как проинформировать Google о том, что мы думаем, в отношении нашего сайта применяется поисковая пессимизация.
О: Мы очень хорошо собираем такую информацию. И реагируем правильно на такое. Если поисковая пессимизация подействовала я рекомендую запостить эту информацию на форуме вебмастеров или отправить это напрямую мне. Если вы думаете, что негативное СЕО связано с линками, то можете всегда положить их в файл disavow.

В: Наш сайт наказал Penguin в 2014. Владелец сменился. Мы пофиксили проблемы и ждем апдэйта. Можем ли мы получить мануальный апдэйт?
О: Мы не делаем апдэйты многих алгоритмов вручную. Апдэйт автоматический. Для таких случаев нет мануального апдэйта. Если все проблемы пофикшены, то при следующем обновлении, возможно, станет немного лучше. Следующий апдэйт еще не анонсирован.

В: Можно ли попасть под фильтр или получить пенальти за A/B раздельное тестирование? Как избавиться?
О: В основном мы распознаем, что люди хотят сделать A/B тестирование и это нормально для нас. При этом мы требуем, чтобы с Googlebot’ом обращались как с простым пользователем. Что может случиться при A/B тесте, так это то, что мы найдем новый контент. Если новый контент значительно отличается от старого, то можем ранжировать новый соответственно. Вы можете иметь обе версии доступными. В таком случае нет способа избавиться от этого.

На 41ой минуте Джон много говорил про ИИ и поисковые системы… Про Гугл, Бинг и Яндекс. Рекомендую посмотреть с этого момента

Спасибо Джону! Интересная встреча :) asdw.by