Было такое письмо, извинились и ресурс удалили, но сайт уже давно заброшен.
Родил наконец то ☝
Почему же? Какой-то же они возьмут в любом случае при благоприятных условиях? Или у них черный список? Ага вот этот братюня уже пытался подать заявку...
Еще был такой случай, тоже подавал как только создал сайт, но другой домен. После того как его не приняли попытался добавить на платной основе, опять же его не приняли, но появилась возможность снова подать заявку на бесплатную регистрацию. После этого пытался еще раз так сделать, но не получилось...
Как бы первые пару месяцев подавал с www и без, и еще 2 домена так запорол. :(
golf4man, у меня немного другая ситуация. Гугл показывает изначально "About 445 results (0.09 seconds)", т.е. последний урл будет на 44 странице в поиске. Щелкаю эти страницы, и доходит только до 27 потому что остальные из индекса я исключил через "удаление урла", но не понятно почему гугл сразу не показывает результат "About 269 results (0.12 seconds)". Из-за такой фигни во многих сервисах показывает, что в соплях намного больше страниц и соответственно процент находящихся в основной выдаче меньше.
Sower, о какой кучи идет речь? Я добавил где-то 124 в течении нескольких дней, всё удалилось. Некоторые из них были каталогами, что упростило задачу. Однако все-равно остались урлы такого типа:
http://site.ru/svezhie_novosti.html
http://site.ru/news/svezhie_novosti.html
Если бы все новости были бы добавлены в категории, то можно было бы удалить на раз такое. А так приходиться переходит с выдачи на сайт и смотреть добавлена ли в категорию и тд. При большом объеме страниц это просто нереально будет сделать.
Еще заметил, что гугл как бы удалил новости. Но в выдаче показывает всё-равно результат "About 445 results (0.09 seconds)", переходишь на последнюю страницу выдачи и показывает уже "Page 27 of 269 results (0.12 seconds)".
Гугл>Инструменты для веб-мастеров>Доступ для сканера>Удалить URL, только так можно. Всё что я выставил в роботсе учитывает только яндекс, а вот гугл тупо забивает на него. Поэтому сейчас приходиться вручную каждую страницу проверять, хорошо хоть на сайте пока 300 страниц.
Мне наоборот нужно заставить его выплюнуть, то что ему не разрешали индексировать. Приходиться теперь вручную дубли искать и удалять.
Я так понимаю это платная программа? Где можно скачать нормальный версию с кряком? Нашел какую-то но после того как нажал парсить она зависла =(