К Платону обращался. Вот его ответ:
К сожалению, у нас нет возможности удалить страницы какого-либо сайта из
результатов поиска. Если Вы не можете запретить их индексирование в файле
robots.txt, то рекомендую Вам обратиться к администратору Вашего сервера с
просьбой настроить его таким образом, чтобы при обращении к этим страницам
отдавалась HTTP ошибка 404. Вы можете ускорить процесс удаления несуществующих
страниц, добавляя их в форму "Удалить URL":
Robot.txt не доступен для редактирования, error 404 на сервере прописать нельзя. Требуется лишь ответ на вышепоставленный вопрос. Удалятся или нет?
Загружаю статью частями, начиная с конца. Покупаю несколько ссылок на новую страницу. Когда текст часть текста попадает в индекс, открываю ссылку на статью с главной страницы. После индексирования и открытия ссылки с главной от купленных ссылок можно отказаться.
А субботы на воскресенье бывает?
Нет, не уверен. Предполагаю, что это недостаток всех агрегаторов.
У меня проект в Сеопульте, а проверяю ключевые в конкурентном анализе руки.ру. Анализ в сеопульте - полное г..но. Но добиться такого же как в руках анализа от них сложно. Ответ примерно такой: "сам дурак, пользоваться не умеешь". Да не умею и поэтому в течении года они имеют меня на деньги, а результата нет, как выяснилось недавно из-за переспама ключевиков. У меня только один вывод: это финансово выгодно Сеопульту, чтобы народ наращивал больше ссылочную массу, а не приводил в порядок количество ключей на сайте.
Соответствующим сервисом от rookee.ru.
Сервис рекомендации в Сеопульт по количеству вхождений ключевых слов - прямая дорога в фильтр "ты спамный"! Проверено на себе!
Определял так: вводил ключевик с точкой после него (ключевик.) и без неё. С точкой после слова сайт на 12 месте, без неё на 50 месте.
Можно ли размещать ссылки на тематических сайтах (здоровье, медицина)?