Успокоиться, www.google.ru/#!Pentagon вошёл в каждый комп! И про вас тоже всё знает. Нельзя было проигрывать холодную войну!
inurl:sort
кэшей нету, попробуйте добавить в запрос какое-нибудь слово с этих страниц, которого в урле и тайтле нету.
У создателей сайтов просто свойство есть такое — плодить дубли
http://aftamat4ik.ru/?_escaped_fragment_=authorname=%D0%93%D0%A0%D0%9E%D0%A2
http://aftamat4ik.ru/?_escaped_fragment_=authorname=%C3%D0%CE%D2
200 ОК
это всё дубли
https://searchengines.guru/
/
Но с кириллицей всё ещё хуже.
Какой запрос пошлёт браузер, если ссылка http://aftamat4ik.ru/#!authorname=ГРОТ будет на странице с кодировкой виндовс-1251 ?
И лучше бы уделить внимание понятному для искателю названию и правильному расположению в HTML
<div id="main"><!-- albums -->
<title>Исполнитель ГРОТ</title>
может лучше
href='/#!find=Л '
или
href='/#!find=%D0%9B'
И закладывать так глубоко в ссылочной структуре именно то, что и будут искать — можно просто не дождаться индексации всего этого чужого добра.
/ и /index.php и являются дублями
А с кириллицей в урлах ещё бывают проблемы
http://ru.wikipedia.org/wiki/%CF%EE%F0%EE%F5
http://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D1%80%D0%BE%D1%85
из лучших побуждений создателя.
Вот сразу два дубля.
Ну морда Яндекса вам для экспериментов пойдёт?
Яндекс и Гугл не нуждаются в <head> и <body>
И даже тег <html> типа подразумеваются.
Ищите старые темы пользователя Ayavryk
Ответы ТП и “диагностика” ЯВМ — прямое враньё — если вопрос касается того, где ПС экономят
подопытный, там этой ошибки сделать просто нельзя.
И вообще, ПС смотрят на документ гораздо проще, чем браузеры. Но с go.mail.ru как-то всё не так.
Закрыть-то можно простыми правилами в robots.txt
301 сделайте на без www, как оно и началось индекситься.
И при запросе несуществующей, и при www.aftamat4ik.ru чтобы отвечало 301 http://aftamat4ik.ru/
Ещё можно попробовать украшаловку
Не исчезнет.
Нужно планировать заранее — что следует показывать в выдаче, а что нет. И с каким заголовком... например домен там явно не нужен.
И если выкинуть из индекса эти страницы, то сможет ли бот как-то ещё найти сцылки, которые сейчас на этих страницах?
Если глянуть в кэши ихнего примера, то у них там не только на т.н. главной <meta name="fragment" content="!"/>
т.е. эксперимент продолжается.
И посмотрите как 301 делать. А у вас Location забыт.
И полазьте по самым разным урлам, по которым может обратиться бот (с _escaped_fragment_=***), посмотрите на ответ сервера. 200 можно отвечать по обращению за тем, что искателям может быть полезно, но не по бесконечным дублям одной и той же страницы:
GET /index.php HTTP/1.1 Host: aftamat4ik.ru HTTP/1.1 200 OK
А завтра таких главных в индексе будет 100500 со случайными параметрами. Это и есть дубли. Ответ у вас 200 ОК на всё такое.
По /?_escaped_fragment_=qwe ответ 200
Ну зайдите с выключенными скриптами хоть на / хоть на /?_escaped_fragment_= и там <a class='link' href='#!authorname=ГРОТ'>ГРОТ</a>
Объяснять дальше смысла нет. Когда увидите в индексе, тогда и задумаетесь, может быть. И хелп перечитаете
и не будете предлагать боту этот метатег на страницах с #hash
А такого дальше будет больше. И нужно ли оно в выдаче? Понятно ли?
В кэше пока нет. Подождите.
И разве в хелпе говорили делать <meta name="fragment" content="!"> для внутренних?
И <title> у вас нету по /?_escaped_fragment_=find=Q
Когда увидите результат индексации... всё придётся переделать.
Всё увидит <a class='link' href='#!authorname=ГРОТ'>ГРОТ</a>
И готовьтесь к проблемам типа http://aftamat4ik.ru/#!ajax-Govno т.е. значения параметра _escaped_fragment_ надо проверять и если оно не является допустимым, то отвечать 301 например, а у вас 200 Ок. А как проверять, если урлов аж 1186 штук?
Если Гугл найдёт #!hash то сканирует с ?_escaped_fragment_=hash
но в выдаче будет с #!hash
А у Яндекса с ?_escaped_fragment_=hash
т.е. с Я и G придут к вам по разным урлам. И это надо правильно обработать... возможно на клиенте.
На это не следует надеяться. В robots.txt надо указывать явно — чего можно, а чего нет. А то иногда получается смешно...
Вообще, #!это гуглоиды придумали зря, так можно создать дубли тем, кто про#!это всё просто не думает.
А если вы #!такой индексации хотите, то думайте об элементарной понятности искателю/посетителю... результатов такой индексации.