imho-no, а что же тут правильного, если сайт то хороший, ссылки по теме. Другое дело если бы спамил там их, но как же так, если у одних висит ссылок около 400 в Вики(профили футболистов и ссылки на профили на сайте), а мне три штуки уже нельзя. Странно все это получается.
Поставил в Вики три ссылки на разные разделы сайта.
Дали мне предупреждение, мол, спамом начал заниматься. Странно, но я ставил ссылки по тематике статей на уникальные материалы в сети, что им еще нужно? Зажрались совсем.
Ткнули меня:
Вот здесь можно подробнее, как это могло произойти и почему?
Мои данные, на всякий:
30.07 Yandex - 1 (главная)
30.07 Google - 9 (c главной)
Еще такой вопрос, можно подробнее узнать, куда Вы потратили уже 50 рублей?!
Отличная тема!
Уже нашел некоторые ответы, премного благодарен!
Подскажите, это нормальный robot.txt для всех поисковиков?!
User-agent: *Sitemap: http://link_my_website=xmlDisallow: /my_folder1/Disallow: /my_folder2/Disallow: /my_folder3/Disallow: /my_folder4/Disallow: /my_folder5/Disallow: /my_folder6/
Может я что-то упустил? Где-то читал, что для бота Yandex необходимо дописывать Host: http://link_my_website/
И тогда robot.txt примет такой вид:
User-agent: YandexSitemap: http://link_my_website=xmlDisallow: /my_folder1/Disallow: /my_folder2/Disallow: /my_folder3/Disallow: /my_folder4/Disallow: /my_folder5/Disallow: /my_folder6/Host: http://link_my_website/User-agent: *Sitemap: http://link_my_website=xmlDisallow: /my_folder1/Disallow: /my_folder2/Disallow: /my_folder3/Disallow: /my_folder4/Disallow: /my_folder5/Disallow: /my_folder6/
Спасибо!
Спасибо всем!!!
Я тут уже и сделал robot.txt, в переезжаю в соседнюю тему.