- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Думаю, это не только мне будет интересно, поэтому спрашиваю на форуме, а не в личном сообщении.
В данной теме это никому не интересно =)
В общем, прогнал я один из своих сайтов так, как описано тут: http://trust.alaev.info/cases/chomba-google/
По ходу возникли вопросы - извините, что они, возможно, наивные, просьба ответить (может, не только мне это будет интересно):
1) почему программа оценивает только домены, а не конкретные страницы, где находится ссылка - это корректно? Просто и на хороших доменах могут быть очень заспамленные страницы...
2) Гугл показывает 18 тысяч бэков, но выгрузить из его Вебмастера смог только 4500 - а что с остальными? Больше Гугол-вебмастер просто не дает выгрузить, нигде не показывает
3) после скармливания списка "плохих" доменов сервису Disavow путем загрузки txt-файла выдалось сообщение: "Доменов: 0, URL: 2550". Почему доменов ноль?? Там как раз 2550 доменов. Это нормально? В файле был простой перечень доменов в столбик...
Спасибо заранее!
В общем, прогнал я один из своих сайтов так, как описано тут: http://trust.alaev.info/cases/chomba-google/
По ходу возникли вопросы - извините, что они, возможно, наивные, просьба ответить (может, не только мне это будет интересно):
1) почему программа оценивает только домены, а не конкретные страницы, где находится ссылка - это корректно? Просто и на хороших доменах могут быть очень заспамленные страницы...
2) Гугл показывает 18 тысяч бэков, но выгрузить из его Вебмастера смог только 4500 - а что с остальными? Больше Гугол-вебмастер просто не дает выгрузить, нигде не показывает
3) после скармливания списка "плохих" доменов сервису Disavow путем загрузки txt-файла выдалось сообщение: "Доменов: 0, URL: 2550". Почему доменов ноль?? Там как раз 2550 доменов. Это нормально? В файле был простой перечень доменов в столбик...
Спасибо заранее!
1) Оценивается траст и спам по домену, а не по отдельным страницам.
2) дубли доменов удаляет.
3) а вы все правильно сделали?
- если в файле есть кириллица он должен быть в формате utf-8 без бом (домены писать кириллицей!)
- файл не должен содержать ошибок - лишних записей, аля даты и т.д и т.п. только урл или записи типа:
http://spam.example.com/stuff/comments.html domain:example.com
- каждая запись с новой строки
- в файле не должно быть пуникода
- последующая отправка отменяет предыдущую т.е. если будите отправлять файл несколько раз - то старый файл нужно обновлять/дополнять и затем отправлять
- после отправки файла не забудьте отправить письмо на пересмотр с краткими примерами проделанной работы
с гугл форума.
1) Оценивается траст и спам по домену, а не по отдельным страницам.
2) дубли доменов удаляет.
3) а вы все правильно сделали?
- файл не должен содержать ошибок - лишних записей, аля даты и т.д и т.п. только урл или записи типа:
http://spam.example.com/stuff/comments.html domain:example.com
с гугл форума.
Черт, а у меня только домены были (без слова domain) в столбик:
http://example1.com
http://example2.com
http://example2.com
...
Что делать - заново отправлять? И как мне узнать теперь урл? Я оставил только домены, т.к. программа FastTrust оперирует только доменами. А без урла никак?
---------- Добавлено 16.09.2013 в 20:36 ----------
А, всё, нашел ответ в Гугол-вебмастере:
If you want Google to ignore all links from an entire domain (like example.com), add the line "domain:example.com".
Так что теперь надо вместо 'http://' везде поставить 'domain:'
(просто автозаменой).
И заново послать! Правильно?
Я вот еще что подумал: надо же давать комментарии, типа, писал вебмастеру (владельцу) сайта, но не получил ответа. По крайней мере, в гугол-вебмастере приводится пример таких комментов о проделанной работе. Вот я решил сгенерировать такие комментарии, чтобы одно и то же не писать, в Seo-Ag (Anchor Generator) по такому шаблону:
#{On {April|May|June|July|August}/{1|3|5|7|9|12|15|18|19|23|24|28} |}{I |}{contacted|wrote to|asked|applied to} {the|site|the site|} {owner|webmaster} {to remove {links|link|the link|the links}|to delete {links|link|the link|the links}|to erase {links|link|the link|the links}|for link removal|for links elimination} {but|however} {I |}{still |}{have |}{got|received} no {reply|answer|responce|feedback|result|outcome}
Далее запускаю "случайную генерацию".
Вот только не знаю, если перед каждым доменом такой комментарий давать, это не слишком будет? Может, ставить перед каждым пятым (примерно)? Жду ваших комментариев, коллеги!
Я вот еще что подумал: надо же давать комментарии, типа, писал вебмастеру (владельцу) сайта, но не получил ответа. По крайней мере, в гугол-вебмастере приводится пример таких комментов о проделанной работе.
Такой коммент, точнее описание своих работ необходимо писать в форме заявки на пересмотр. В самом файле с отклоняемыми доменами/ссылками не надо ничего писать.
И не стоит хитрить, тем более шаблонизаторами пользоваться. Там же люди =)
Тем легче.
Заявка мне не нужна, т.к. писем о санкциях я не получал, хотя фильтр явно есть - позиции рухнули
А, всё, нашел ответ в Гугол-вебмастере:
If you want Google to ignore all links from an entire domain (like example.com), add the line "domain:example.com".
Так что теперь надо вместо 'http://' везде поставить 'domain:'
(просто автозаменой).
И заново послать!
В общем, я так и сделал, и теперь Disavow Links Tool выдал правильное сообщение о результате: "Доменов: 2455, URL: 0"
Заявка мне не нужна, т.к. писем о санкциях я не получал, хотя фильтр явно есть - позиции рухнули
Ну в таком случае ты не сможешь отправить сайт на пересмотр, т.к. ручных санкций не было. А автоматические пересмотру не подлежат. Но ты можешь обратиться в форум для вебмастеров https://productforums.google.com/forum/#!categories/webmaster-ru/%D1%81%D0%BA%D0%B0%D0%BD%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%B8-%D1%80%D0%B0%D0%BD%D0%B6%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D1%81%D0%B0%D0%B9%D1%82%D0%BE%D0%B2 там сайт препарируют как надо :)
Ну в таком случае ты не сможешь отправить сайт на пересмотр, т.к. ручных санкций не было. А автоматические пересмотру не подлежат. Но ты можешь обратиться в форум для вебмастеров https://productforums.google.com/forum/#!categories/webmaster-ru/%D1%81%D0%BA%D0%B0%D0%BD%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%B8-%D1%80%D0%B0%D0%BD%D0%B6%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D1%81%D0%B0%D0%B9%D1%82%D0%BE%D0%B2 там сайт препарируют как надо :)
Гм... 😒 "Автоматические пересмотру не подлежат" - а если они наложены за плохую ссылочную массу, а я плохие ссылки отправил в Disavow Links, то может быть, автоматические санкции через какое-то время автоматически же и снимутся?
Или я, о ужас, вообще зря эту возню затеял с Disavow Links?? 😮
PS. В любом случае, спасибо за совет насчет форума вебмастеров