Блин, пристыдил до уровня плинтуса. :)
Помнил же, что много, а сколько точно ...
Ладно, сам докапаюсь. В любом случае - спасибо.
Великодушный ...
Я б забанил после второго поста ...
Доказывать не прошу, а вот ссылочку на эти исследования попросил бы (ибо слышал о таких исследованиях, но не изучал их).
Читал где-то, как гугловоды говорили, что для того чтобы им переиндексировать весь инет (существующий на текущий момент) надо сколько-то там много времени, примерно соизмеримого по размеру со всем временем жизни гугла (то есть несколько лет непрерывного индексирования). Представляю, сколько по времени они потом считать все это будут. :)
Угу, многие знают. Но только до сих пор еще смотрят на это сквозь пальцы и допусках их на своих сайтах.
А есть закрытые, но которые может проиндексировать.
Как такое бесит, когда переходишь по ссылке, а он тебе выкидывает форточку апачевской авторизации и при неправильном (ну естественно, откуда мне его знать) пароле отказывает в доступе с 403.
http://advertising.yandex.ru/medcontext.xml
Давно уже Амилющенко рассказывал про этот баннер и про эффективность его использования.
Мой опыт изучения - просмотр кино на английском (это для запоминания произношения, умения понимать слитные предложения и отдельные слова, произносимые в обычной речи, а также для запоминания определенных выражений и искуственных нарушений правил языка в определенных ситуациях), чтение и перевод на русский статей (каждое незнакомое слово - в лингву. Это для запоминания и расширения словарной базы как с точки зрения написания, так и с точки зрения употребления), общение с друзьями, которые занимаются на курсах английского исключительно на английском (это практика общения).
Главное - понимать грамматику, а словарная база - это дело наживное.
В общем так, по приблизительной оценке Влада Шабанова по данным на середину мая в индексе Рамблера было примерно 715 млн. документов, из которых в поиске доступны 642 млн. Еще примерно 2.232 млрд. стоят в очереди на индексацию. В этих 2.232 млрд есть мног дублей и мусора. В общем, примерным числом документов рунета было названо число 1.4 млрд. Теперь возьмите число документов на морде Яндекса, примерно прикиньте количество возможных дублей и мусора в базе и получите некое число х. Теперь поделите дробь х/(1.4 млрд + примерное чило появившихся - примерное число исчезнувших страниц с мая по сегодня) и получите искомое число с определенной (фиг знает какой) погрешностью.
Адрес материала с цифрами Шабанова - http://www.webplanet.ru/news/internet/2005/5/18/nigma.html.
Навряд ли Вы найдете более точные данные.
Тогда под фильтр улетят оба.
Это уже линкопомойка.
Сайт, ее содержащий, при первом же стуке улетает под фильтр. Толк от такого обмена - маленький. Ссылок со страницы должно быть не более 20-25, хотя и 25 - это уже многовато.