богоносец

богоносец
Рейтинг
777
Регистрация
30.01.2007
microCD:
Очень интересно все же - все что написано в данной статье - чистой воды правда...?

Это «правда» в том смысле, что яндексоидам хотелось бы этот процесс типа сдерживать, но не в том смысле, что это совсем прямо так. Их слова «планируем» «не гарантируем» — не о действительности.

А действительность забавна. Смотрим на иконостас. И вот фрагмент диалога с одним из директоров:

Gray:
В своем ли уме 100% посетителей конференций, которые задают докладчикам из Яндекса вопрос об отношении к платным ссылкам
богоносец:
А как вы относитесь к спамсервизам, рекламируемым в пришпиленных темах?
Gray:
Сервизы на форуме не рекламируются.

От участников рынка рекламы... правды не дождётесь. Скорее только мути.

Tarry:
Роботам срать на регистр в роботсе.

Другое дело, как настроен сервант, да. Чего там отдаётся на разный регистр тех же фолдеров на сервере.
burunduk:
запрос вида
url:site.ru/page.html
и
url:site.ru/Page.html
где site.ru/page.html

Это разговор о разном.

Делая запросы url:site.ru/Page.html | url:site.ru/page.html

проверяем только то, как ... обрабатываются запросы :)

и Яндекс, и Гугль не смотрят на регистр в запросе... хотя ссылка из выдачи — на урл с правильным регистром, иначе было бы 404.

Примера сейчас уже нет, но на регистрозависимом серваке две ПС проиндексили /Indexing-... когда в роботсе было Disallow: /index

но вот что-то ёкнуло, и решил уточнить урл в роботсе: Disallow /index.htm ... поэтому примера и нет уже. Но на регист в роботсе — роботам не срать... или не всегда.

Но все возможные случаи не проверялись. А надо бы. Или, на всякий случай, придерживайтесь одного регистра везде.

Ну и повторю один из вменяемых, и что самое приятное — тогда ещё уникальный, прошлогодний ответ ТП:

В настоящий момент из страниц, url которых различается только в регистре, в результатах поиска может участвовать только одна из этих страниц. C помощью файла sitemap можно повлиять на URL отображаемой страницы в результатах поиска, указав в нем адрес страницы в требуемом регистре.
С уважением, Платон Щукин

Но это уже не про обработку запроса с разным регистром. Вот и ломайте головы, а тут есть над чем. А ТП будет молчать...

в соплях могут появиться URL, которые запрещены в robots.txt?

Появиться в доп результатах и долго там быть.

http://www.google.com/support/webmasters/bin/answer.py?answer=93708 Следует отметить, что даже если вы запретите поисковым роботам сканировать содержание вашего сайта с помощью файла robots.txt, возможно, что Google обнаружит его другими способами и добавит в индекс. Например, на ваш контент могут ссылаться другие сайты. В результате URL страницы и, возможно, другие общедоступные сведения, такие как якорный текст в ссылках на сайт или заголовок из Open Directory Project, могут появиться в результатах поиска Google. Хотя все роботы уважаемых поисковых систем выполняют команды файла robots.txt, некоторые могут интерпретировать их по-своему. Однако файл robots.txt не является обязательным к исполнению, и некоторые спамеры и другие злоумышленники могут его игнорировать. Поэтому мы рекомендуем защищать конфиденциальную информацию с помощью пароля (как указано выше).

Можно использовать инструмент Создать файл robots.txt в Инструментах для веб-мастеров, чтобы создать файл robots.txt, и проверить его с помощью инструмента Проверка robots.txt.

Используйте метатег noindex, чтобы содержание не появлялось в наших результатах поиска. При наличии метатега noindex на странице Google исключает всю страницу из наших результатов поиска, даже если на нее ссылаются другие страницы. Если содержание уже присутствует в нашем индексе, оно будет удалено при следующем сканировании. (Чтобы ускорить удаление, используйте инструмент Удалить URL-адреса в Инструментах Google для веб-мастеров.) Другие поисковые системы могут интерпретировать эту команду по-разному. В результате ссылка на эту страницу может появляться в их результатах поиска.

Чтобы увидеть тег noindex, мы должны просканировать вашу страницу, поэтому существует небольшая вероятность, что робот Googlebot не увидит и не отреагирует на метатег noindex (например, если мы не сканировали страницу после добавления этого тега).

А есть например документы.PDF — в них мета-роботс-ноуиндекс не добавишь. Просто ПС нашла внутреннюю сцылку на такой документ.

Олег А.:
флешкукки не выносятся никогда они не привязаны к браузеру.
И если флеш не отключен Яндекс вас помнит.

http://yandex.ru/yandsearch?text=kiks.yandex

Чтобы удалить flash cookie Яндекса, нужно перейти по ссылке и из списка посещенных веб-сайтов удалить запись "kiks.yandex.ru".

И что будет после этого с авторизацией?

kukutz

Это просто кука уровня компьютера, а не уровня браузера.

Используется для статистики, а не для зла =)

это не для хака тех, кто куки отключил, а для сязывания разных браузеров одного пользователя.

Все в это верят?

Вспомнилось про цензуру в Яндексе... та тема устарела, а новую не хочется.

Было несколько эмоциональных реплик типа:

Gray
Наша задача заключается в том, что если есть в интернете информация, которая может быть ответом на вопрос пользователя, надо помочь ему ее найти в удобном и понятном виде. А если попутно выясняется, что кто-то в здравом уме и собственном невежестве ходит по улице без трусов, то наша машинка его сфотографирует и с большой вероятностью опубликует на Панорамах. И никто в Яндексе не задастся целью пририсовать ему трусы — мы не цензоры. И не сторожи братьям нашим по разуму, пусть и младшим.
Kost
Если Яндекс решит публично взять на себя функцию цензуры, представьте что тогда будет!

Тем не менее, её иногда как бы приходится осуществлять. По мелочам. С самыми благими и вполне понятными намерениями. Особенно монополисту.

Помнится, когда пытался глумиться в прошлом году над горе-сцылочниками, то... сначала удавались НПС с ненормативной лексикой по нормальным запросам

[ATTACH]93945[/ATTACH]

а потом... вроде как анкоры с матом перестали проходить. Даже в сохранившемся примере пришлось в последнем слове изменять одну букву.

gif Snippet-SeoPult.TV-forum.search.gif
traiderlink:
Будем надеяться что Яндекс повзрослеет)

Некуда ему взрослеть. У любых ПС-как-причины-ГСтроя — неразрешимые проблемы. И в свободном мире то же самое. И сама технология поиска ... не может сделать качественного скачка (а то возник бы новый Бог), как люди не могут понять функционирования ума — которым якобы-думают (но это тоже заблуждение, любой Пелевин подтвердит).

Может как-нибудь дойдёт до того, что G00DMAN про яндексоидов кой чего дорасскажет... пока этому могут препятствовать какие-то соглашения. Предыстория была такой:

G00DMAN:
Вот за очистку рунета от говна я попробую побороться, есть технологии и есть шансы, что эти технологии будут применены.

Вроде бы применены не были. Но до разглашения подробностей не дошло пока.

Fruit:
встал вопрос о переносе сайта на другой домен

А зачем склейка? Что такого хорошего у старого домена? Не проще просто новый сделать?

infin1ty:
АГС может прийти к нему просто так, так же, как и к старому домену.

Но может и не прийти. Хотя со старого при этом не уйдёт типа.

dronpi:
но почему нет такого отношения к Гуглу, там что мощностей больше? Или просто там нет Яндексоидов?

И мощностей больше, и опыта... и они являются носителями других традиций, которые Глебу Жиглову и яндексоидам... не близки.

Т.е. на Западе принято думать не только о необходимости санкций, но и об их возможном вреде тоже:

Одна из первых тем в доктрине о свободе слова — это “широкое толкование” — понятие о том, что правило, которое влияет на свободу слова более, чем это необходимо для достижения своей регламентирующей цели, подвергает сомнению истинность конституции. Есть тесная связь между анализом широкого толкования первой поправки и одного из ключевых аргументов в поддержку принципа слоёв — тезиса соответствия: “Данный нижний уровень непременно используется по большей части добросовестными пользователями в том, что касается проблем, которые берут начало на верхних слоях”. Связь между двумя идеями интуитивна и очевидна. Есть только один способ регулирования контента (свободы слова) в Интернете — это атаковать источник; например, потребовать, чтобы поставщик услуг Интернета заблокировал IP-адреса веб-сайтов, которые предоставляют запрещённый контент. Одним из подтекстов тезиса соответствия является то, что такое регулирование с пересечением слоёв по сути своей является чрезмерным. >>>

Принято думать не только о количестве пойманных нарушителей, но и о возникающих при этом неудобствах для всех остальных.

Неодномерные конфликты и последствия упрощённого подхода... яндексоиды не видят, нечем им. Проблема (созданная самой ПС) не решается, а как бы запрещается, что является временным самообманом.

ТС, вы хотите подарить кому-нибудь все усилия, затраченные на продвижение

http://lover-shop.ru/robots.txt Host написать не судьба? А на вора прямых сцылок ставить не надо.

Яндекс Решето

Яндекс заинтересован в наличии клонов чужих сайтов в выдаче и продаже ссылок с них

Всего: 13677