Очень интересная встреча. Много новых вопросов о поисковой оптимизации. Рекомендую прочитать основные вопросы и ответы ниже или посмотреть видео! 

Самые интересные вопросы и ответы по поисковой оптимизации на Google Webmasters Hangout :

     Вопрос вебмастера: Вопрос на тему контента. Наш сайт продает автомобильные запчасти и аксессуары уже 6 лет. Это большой сайт автомобильной тематики. Но полгода назад мы решили добавить новые категории и новые продукты которые не смежны с авто индустрией. Например: ”домашнее аудио, микрофоны, домашние кинотеатры и похожее”. Мы поместили их в корень сайта. Наш трафик по авто кейвордам сильно упал. Можно ли сказать, что все эти новые продукты понизили ранг сайта и вызвали падение трафика?
     Ответ Джона: Обычно, это не так просто. И мы можем сказать, хорошо, вы сфокусировались на авто запчастях. Теперь вы добавили, например, мебель, или что-то в этом роде. И мы не скажем что, этот сайт теперь не так силен в авто теме. Не происходит размытая сайта темой. Если вы видите падение ранга после чего-то в роде этого, тогда как это не должно происходить на протяжении добавления отличающегося типа контента на ваш сайт, возможно, причина в чтем-то другом, или мы не находим это таким полезным, как это должно быть.
     Вопрос вебмастера: Возможно есть лучший способ организовать это. Должны ли мы лучше взять новый домен для остальной не авто тематики, или, возможно, субдомен? Будет ли это разницей для гугл вообще?
     Ответ Джона: Я уверен, разница будет, но не могу сказать положительная или отрицательная. На самом деле это будет два разделенных сайта. С моей точки зрения я бы предпочел 1 сильный вебсайт вместо деления. Если у вас 1 сильный сайт, то вы можете сфокусироваться на высоком качестве. Но иногда это имеет смысл по причинам маркетинга. Если вы рассчитываете на совершенно другую аудиторию.


 

     Вопрос вебмастера: Если есть нишевый сайт. И добавляется связка категорий продуктов не относяшихся к нише, технически не размывается ли сайт? Возможно поэтому вы обычно рекомендовали маленькому бизнесу сфокусироваться на специфичной нише.
     Ответ Джона: Не обязательно, что вы размываете контент сайта.... Нужно время для нас, чтобы понять, что делать с новой информацией. Если инфа полезна мы ее соберем….


 

     Вопрос вебмастера: Вопрос по поводу индексирования и не индексирования. robots.txt нужен для блокировки страниц. Теперь если представить ситуацию когда Google ползает по страницам и страницы уже проиндексированы. Что будет если заблокировать их в роботс? Мы не можем расположить ноиндекс на странице. Как нам вытянуть не нужные страницы из поиска? Сделать это как можно быстрее.
     Ответ Джона: Я бы использовал “утилиту удаления URL” в консоли вебмастера. Если это специфическая папка или субдомен или все, что стартует с search.php, или другой вариант, все что нужно удалить, используйте утилиту. В течении 90 дней урлы будут удалены. Я бы установил календарь и проверил бы через 90 дней что осталось. Если ваш сайт верифицирован (в гугл вебмастер панели) у вас есть выбор удалить ссылку, папку, и также можно использовать название скрипта и каждый урл который будет стартовать с этой ссылки будет удален.
     Вопрос вебмастера: Будет ли это работать для динамического движка? Будет ли это работать динамически до предполагаемой папки?
     Ответ Джона: “””Нет. Это должно быть точным. Это должно быть точным совпадением этой папки. Если, например, вы имеете категорию а потом поиск, и потом имеете все, что хотели бы удалить после поиска, но категорий могут быть сотни. Это не то, что было бы легко сделать тут. Можете сабмитить их вручную. Если у вас есть время и это очень важно для вас. Но это не то где вы можете просто сказать - все, что начинается с рандома а потом поиска я хочу удалить”””.
     Вопрос вебмастера: Есть ли какая-нибудь альтернатива для этого или это дэфалт. Если мы не можем получить ноиндекс маршрут есть ли какая-та альтернатива?
     Ответ Джона: Не совсем. Зависит от типа контента. Что возможно случится если вы заблокируете это с роботс.тхт . Мы потеряем путь к контенту, потому что бы не можем лазить там, и определенно не будет ранжироваться это хорошо. Если вы ищите по нормальным запросам контент, вы его не найдете. Но если явно сделаете запрос сайта с запросом поисковым или по урлу запроса тогда вы все еще найдете его. Зависит от того, на что вы смотрите, если вы говорите, что я просто не хочу, чтобы нормальные пользователели находили это, то возможно будет приемлемо просто блокироваться в роботс.тхт. Если вы хотите сказать, что это конфиденциальная инфа, может быть в строке запроса там почтовый ящик, или что-то в роде этого, тогда, возможно, вы захотите сделать этот шаг, и сказать, Я не хочу, чтобы люди даже были способны проходить через это поиск.


 

     Вопрос вебмастера: Еще один быстрый вопрос по индексации. Какой самый быстрый способ помочь индексации сайта?
     Ответ Джона: Используйте сайтмап.


 

     Вопрос вебмастера: Я чувствую себя потерянным из-за отсутствия возможности выбора локаций в настройках поиска...
     Ответ Джона: Большинство поисковых функций сфокусированы на пользователей и их запросы. Считаю это не критичным для поисковых оптимизаторов.
     Вопрос вебмастера: Моя локация из-за моего ип определяется в 45 минутах от моего реального местоположения.
     Ответ Джона: Я донесу эту обратную связь до команды, и посмотрю, что они скажут.


 

     Вопрос вебмастера: Есть ли подсказки для поисковой оптимизации 2016?
     Ответ Джона: … … будем собирать больше информации с сайтов на javaScript. Сфокусируйтесь на контенте высокого качества. Я видел много СЕО блогов с постами о опыте использования. Что, я считаю: ”это крутое занятие, чтобы сфокусироваться на нем”... .


 

     Вопрос вебмастера: Относится ли гугл ко всем индустриям одинаково?...
     Ответ Джона: В общем мы стараемся относиться одинаково. Не видим смысла делить индустрию или каким-то образом настраивать ее. Иногда с настройками поиска у нас есть ограничения по странам, политике конфиденциальности, авторских правах в отдельных странах.

    asdw.by