Ну так а запрос на удаление отправить теперь? Вы вот что: если URL мало, то вручную отправляйте запрос на КАЖДЫЙ из них, ничего при этом перекрывать не надо (если это не каталоги). Если много - то откройте их в РОБОТСе, и ждите, пока само не удалится.
Все это прекрасно работает в течении суток (не считая варианта, когда "само удалится").
==============
Willie добавил 03.03.2010 в 03:21
Спасибо, что подключились!
Это в корне неверно! Как же Гугл теперь увидит, что страницы больше не стало? Наоброт, ОТКРОЙТЕ их, чтобы он поскорее пришел, увидел и выкинул несуществующие страницы из индекса.
Сайт ТС по запросу, приведенному в первом посте ("best flash games"), в ОБЫЧНОМ поиске (не по самым последним сообщениям в блогах) в пределах первых 15 страниц в Гугле.ком НЕ ОБНАРУЖЕН. Дальше смотреть не стал.
Если это "оптимизация" или "продвижение" - то что такое полная жопа?!
Я туда еще картинку только что влепил. Правда, рекомендуют писать на 404-й странице как можно меньше, чтоб юзер сразу понимал, что надо как-то по-другому зайти, но пусть так побудет. Надо же чем-то отличаться?! :)
Я не всматривался детально, но что-то там не так с категориями. У Вас всего 19 страниц в основном индексе, а Гугол знает о более, чем 400. Прощелкайте выдачу по команде "site:site.ru" до конца, затем нажминте на "Показать опущенные результаты", и еще раз прошелкайте. Во второй половине выдачи увидите, что Гугол захавал кучу страниц, где у Вас стоят вордпрессовские плагины. Это одна из явных причин, за что он Вас не взлюбил; сами бы Вы как с сайту отнеслись, у которого больше половины страниц - вообще непотребность полнейшая? Это надо "лечить".
Но самое главное - нужно предметно разбираться, отчего Гугол хорошие страницы не полюбил (в начале ответа писал). Их надо вытаскивать из "соплей", иначе щщастья не будет. А начать лучше с того, что поубирать из кэша Гугла все Ваши плагинистые страницы.
=====================
Willie добавил 28.02.2010 в 02:21
Уже написал Вам. Лечится довольно просто, да только переиндексации можно бысто не дождаться.
Willie добавил 28.02.2010 в 02:23
Ну и что Вы от сайта хотите? Как только станет чуть-чуть заметнее - сразу же угодит в категорию "для взрослых" и будет находиться только при отключенном безопасном поиске.
P.S. Вы корректно сделали, что предупредили в посте о содержании.
Willie добавил 28.02.2010 в 02:38
У Вас на сайте меньше 50 страниц, из них оформлено в соответствии с гугловским Руководством от силы полтора десятка, да и то скорее не содержат явных расхождений, чем соответствуют.
Яндекс куда терпимее ко многим вещам, чем Гугл. Потому, что ориентируется на средний уровень российских сайтов, и для него ничего вызывающего в таком оформлении страниц нет - он и похуже видел.
Willie добавил 28.02.2010 в 03:03
При этом сервер отдает 404-ю ошибку, как и у Вас. Вовсе же не обязательно ставить редиректы на все мыслимые извращения пользователей при наборе адресов! Это уже на усмотрение веб-мастера; главное - чтобы дубли не плодились. Просто у Вас текст на "ошибочной" странице отдается по умолчанию. Может, конечно, у меня там много лишнего наворочано, но согласитесь: юзер, получив такую страницу, вряд ли свалит с сайта, а попробует ввести адрес правильно: он же чем-то задним почувствует, что почти попал, куда хотел. Или зайдет на главную по ссылке, которая там единственная.
Вот ее и нет, как видите :) Ща еще на русском языке что-нибудь туда напишу, чтоб долго не думали в таких случаях, что делать.
Вообще это уже давно считается хорошим тоном - обрабатывать 404-ю ошибку. Вы без труда найдете в Интернете кучу инфы на выбор, как это лучше сделать.
Из явно плохого попалась вот эта страница: http://www.britvisa.ru/articles.php . Но беда сайта - что из 30 страниц больше половины содержат дублированное описание DESCRIPTION, к тому же короткое, надо сделать раза в два длиннее. Как следствие - все эти страницы вылетели из основного индекса Гугла и в поиске не участвуют.
Я понимаю, когда такое случается на 1000-страничном сайте, где трудно уследить; но уж 30 страниц можно, наверное, оформить надлежащим образом? Это первое и главное, что следовало бы исправить, займет один вечер с перекурами. Затем дождаться, когда ВСЕ они переиндексируются (смотреть по состоянию кэша Гугла), и через после этого недельку наслаждаться появившимся трафиком.
P.S. Будете смеяться, но в этой теме про подобные DESCRIPTION написано чуть ли не сотню раз.
Колитесь давайте! А то заинтриговали очень сильно.
1. Нет, конечно! Это же свой сайт, и чем больше страниц попадет в основной индекс - тем устойчивее он будет. А страницы, которые не связаны навигацией с другими, по определению не могут считаться чем-то достойным. Вот попадет на них юзер с поиска - и куда ему идти, когда прочитает? Обратно в Интернет? А там конкуренты его поджидают, он им ох, как нужен... Они ж его, бедного, к себе на сайты затащат и заставят либо товары покупать, либо по рекламе кликать, либо вообще порно за СМС скачивать да размер члена увеличивать; знаю я их!
Закрывать есть смысл откровенную бестолковку, типа профилей пользователей на этом форуме.
2. Ни в коем случае! Любая страница должна ссылаться на главную, и уж тем более - самые последние страницы. Можно сказать, это их миссия - нагонять вес на "морду".
Как Вы быстро ее подхватили... я только несколько часов назад ее выложил, а в индексе Гугла она появилась буквально три часа назад, Вы не могли ее там поиском найти раньше. Вы что, RSS нашли на сайте?
Это НЕ последний уровень. Вот последний: что должно быть на сайте?, ровно три клика мышом от главной. Смотрите по "хлнбным крошкам"; а URLы все идут от корня. К тому же их все равно никто не читает, вот и сделаны в английской новомодной манере по принципу "если можно наспамить - то грех себя сдерживаь".
Бороться примерно так, как Шариков с кошками: "Всю ночь котов душили, душили...". То есть, убивать беспощадно; здесь срабатывает принцип "кто кого": либо Вы их, либо они Ваш сайт. Только это скорее программиста (кодера) задача, чем верстальщика: дубли создаются CMS'кой.
----------------------
Willie добавил 27.02.2010 в 05:24