И при этом он всячески помогает вебмастерам в этой работе, не так ли?
Датаколом можно распарить ресурсы, а потом залить к себе в блог с отложенкой или все пачкой сразу. Есть фришная версия с ограничением в 50 постов или страниц для парсинга в сутки. Сложность таких парсеров в том, что под каждый ресурс нужны регулярки или сводка правил, которым будет руководствоваться софт при парсинге.
Это общая болезнь социалок и Ютуб, похоже, не исключение. Как только перестаешь добавлять контент или крутить новых друзей, траффик оттуда практически сразу и полностью исчезает. Поэтому страницы, сделанные на Ютубе сложно назвать дорами.
Гугл тупит не индексом как раз, а с траффом. Может неделями лазить по твоим сайтам, смотреть что в них меняется, в общем, анализировать. А индексит сейчас вообще практически мгновенно по сравнению с Яндексом.
Вот именно, что бездумно загрузил, а надо, как Бабуль советует - 100% правильная тема.
Гугл по-моему обновил парк ботов и стал более детально анализировать сайты на вшивость и генерируемость. У меня вот пару белых сайтов вывалились из индекса по причине их недоступности на хостинге, вчера их поднял, а уже сегодня он их начал включать обратно в индекс и давать трафф, делайте выводы.
Очень высокая, поскольку Гугл не одобряет доры.
Скорее всего такое происходит поскольку свои рекламные компании для издателей с разным траффом Гугл Адсенс настраивает по-своему. Или даже вполне может быть, что сами рекламодатели включают настройки показывать свои объявления, например, только на крупных площадках с траффом от 100к и так далее. Принцип, я думаю, понятен.
Плохо, скорее всего. Поставь себя на место потенциального покупателя. Стал бы ты брать товар по видосу в виде слайд шоу? Вряд ли. Люди туда приходят развлечься и отдохнуть. Отсюда такой плохой конверт на Ютубе.
Дело идет к тому, что Гугл сам будет оптимизировать код страницы сайтов под мобилки, если они не оптимизированы самим вебмастерами. Какое-то особое разделение траффа - тупиковый путь, ИМХО.