удалены в конце августа через в вмт,типа успешно. 2 месяца висели в omitted results
клиентское SEO - это прежде всего разгребание чужих ошибок,а потом уже совершение своих собственных😂
нет,разработчики продублировали со страницы галереи меню со ссылками на вторую копию.
в роботс закрыли,но в индексе все равно были все эти дубли.
роботсбыл составлен нормально,через blocked urls в WMT страница была закрыта, а через site: доступна в индексе и кэше. cейчас после 301 и физического удаления папки с хостинга из индекса все дубли пропали.
это к вопросу об игнорировании гуглем robots.txt
там еще изощренней наворотили -полную версию сайта зачем-то скопировали
я 2 месяца назад вручную вычистила 125 404 страниц через форму. до сих пор выдает их в "соплях".
а на клиентском сайте проиндексировал все содержимое директории, закрытой через роботс.ткст
добавила домен с 13к сквозняком, которого уже нет в реале - вебмастер наконец-то отреагировал на .дцать писем, но в ВМТ эти ссылки еще висят.
интересно, что быстрее сработает - новый тул или переиндексация 13000 страниц +обновление ВМТ?
как думаете,это сильно некорректное использование?
у меня 2 запингвиненных. оба с запятнанной репутацией, один больше, другой меньше, оба в возрасте более 5 лет.
для себя буквально вчера решила, что единственный способ выйти из-под пингвина - это доказать гуглю, что он моим сайтам не очень-то и нужен😂
т.е. восстановить траффик до допингвиновского за счет альтернативных источников, максимально улучшить ПФ. других альтернатив пока не вижу.
речь об аренде авто?
разметка? отзывы? видео?
сквозняк с прямым анкором не поставила бы сейчас под дулом пистолета.
брендовый - хорошо бы подумала прежде, чем.
я наоборот сейчас все сквозняки естественные designed by снимаю, оставляя только на главной или перевожу в нофоллоу.
тяжело не равно невозможно ☝
уникальным относительно чего? других похожих сайтов? относительно других похожих страниц этого же сайта?
у меня есть сайт, где контент постят юзеры, после того, как запостили уже то же самое на 2-4 трастовых старых authority сайта в данной тематике, т.к. мой еще молодой и не очень известный.
думала, как быть. пришла к выводу - дописывать от себя ункиальное editorial review на каждую страницу, делать свою уникальную микроразметку данных.
у Вас воруют по 500 страниц еженедельно?
сам по себе единично дублированный контент не вызовет фильтр, если на это не наложатся другие факторы.
у меня на клиентском сайте синергия панды и пингвина. панда за неуникальный контент (фрагменты текста главного продублированы в сотне каталогов и бизнес-профилей) и переоптимизацию (стронги и заголовки с прямыми вхождениями)