Кстати, либо в четверг, либо в пятницу на следующей неделе у вас опять появлюсь.
Можно собраться - если еще силы есть - либо там же, либо неподалёку - в ирландском баре, там даже wifi есть :-)
Тусовка удалась, надеюсь Миха с утра плохими словами меня вспоминать не будет.
Но обслуживание там - не фонтан, работать надо еще с ними и работать....
Party была не частная, но быстрая - кто не успел - извините.
Знаю, но это завтра... А БХ - веселое такое место. Идейный наследник Воблы на Серпуховской - тоже недалеко.
Так-так-так.... А вот с 24-го поподробнее. Где делаешь?
Женя, это просто ирония... Я это отлично понимаю.
Кстати, тема что-то заинтересовала. Посмотрел.
С образованием в целом - да, рулит Яндекс. Примерно с минус процентом от среднего. А вот для коммуникативных сайтов - картинка другая. Например:
http://www.liveinternet.ru/stat/spbgu.ru/searches.html?id=4&id=13&show=%D0%BF%D0%B5%D1%80%D0%B5%D1%81%D1%82%D1%80%D0%BE%D0%B8%D1%82%D1%8C+%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D0%BA&per_page=10&report=searches.html
Ты только что подтвердил мысль топикстартера. По сайтам образовательно-студенческой тематики рулят маргиналы с Гугля.
Если у кого-то есть время - посмотрите на li переходы по тематике "рефераты" и подобным - делаю прогноз, что и там Г будет рулить.
Я-пас (девелоперы - тормоза!).
Хммм... Неужели ребята семантику сломали? Врят-ли.
Вот что..... Внимательно посмотри, с каким кодом ты отдал robots.txt, с каким MIME и не пакованный ли. Дело в том, что если робот видит наличие robots.txt, но не может получить его содержимое - он, по понятным причинам, считается запрещающим.
[max@solomenka-ix solomenka-ix]$ cat robots.txt.bak User-agent: Slurp Disallow: / [max@solomenka-ix solomenka-ix]$
В общем ОК... Единственно что - согласно http://www.robotstxt.org/wc/norobots.html -
"The file consists of one or more records separated by one or more blank lines (terminated by CR,CR/NL, or NL)." (выделение мое).
Не то, чтобы очень важно - но я бы пустую строку добавил в конце (как конец блока)
Так что причина скорее всего не в нем. А что забирал Яндексовский индексер? Если НЕ только роботс - тогда точно не в этом проблема.
User-agent: Slurp Disallow: /
Покажи полный robots.txt