хорошенький советик. если на www.site.ru уже набежало 110 тица а ты его просто удалить из индекса хош? ну и диверсант 😆
уж лучше таки склеить через 301
RewriteCond %{HTTP_HOST} !^www.site.ru$ RewriteRule ^ http://www.site.ru%{REQUEST_URI} [R=301,L]
тогда эффект от ссылок с www не потеряются.
народ наверно прикалывается.
поисковые запросы в вэбалайзере искажены потому, что поисковики принимают запросы в разных кодировках. Проще всего с запросами google и msn - достаточно браузер переключить в отображение utf-8. Апорт и Румблер работают с cp1251. яндекс принимает запросы как в cp1251 так и в koi-8. недавно писал анализатор логов (http://establishment.com.ua/getsearch.pl) с разбором поисковых запросов и столкнулся с проблемой определения кодировки в запросах Яндекса (мой простенький алгоритм выручает в ~90% случаев, но это не фонтан для чего-то серьёзного)
склеиваются не сылки а похожие страницы.
фактически несколько страниц с одним текстом будут в серпе одной позицией с пометкой (N результатов)
этот механизм придуман для того, чтобы не выдавать кучу страниц с одним (или очень похожим) текстом в серпе. фактически - борьба с плагиаторами.. только прискорбно, когда плагиатора выставляют основной ссылкой, а хозяин контента попадает в совокупную ссылку "другие результаты". некоторые хитрецы пытаются склить свою страницу с реальной высокопопулярной страницей воруя контент... только это очень сложно обернуть в свою сторону...
я тебе идею покруче подкину - продавай ссылки с http://google.com/ig - там PR 8!
:d :d :d :d :d
формат очень близкий. и если RSS нужен для предоставления статей (а теперь через него индексируют), то sitemap - для скоростного обновления - там указываются даты измененй страниц, чтобы боту не ходить без толку на неизменившиеся страницы.
Yahoo уже официально заявили об индексации через RSS, Google и Яндекс открыли поиск по блогам, что фактически ознчает их индексацию фидов. Конечно RSS не даёт даты, но приблизительным аналогом карты сайта является (и при этом его формат машиночитаем изначально)
RSS тоже своеобразно влияет (Yahoo например берёт легко), но для индексации лучше использовать карту сайта. Конкретно под Google есть возможность использовать http://google.com/webmasters/sitemaps там же есть инструмент генерации sitemap для статики. Для всех остальных карту сайта нужно делать как отдельную страницу с ссылками.
Если есть желание действительно эфективно использовать RSS и sitemap то нужно писать скрипты. В случае с sitemap обязательно требуется время последнего обновления страницы и чтобы делать sitemap из динамического контента нужно в базе хранить и время обновления контента.
хм... нормально работает...
может это у конкретно вашего ДЦ проблемы... впрочем эта система у них распределена географически...
насчёт гугла согласен - ему всё равно..
уже около года собираю статистику. есть указания на то, что яндекс оценивает транслит... хотя эффекта от этого маловато. уже планирую делать ссылки на том же языке, что и заголовок. единственное, что меня останавливает - невоспроизводимость распечатанной ссылки (что в некоторых проектах недопустимо).
считает посетителей по тулбару
а вобще в этой ветке это офтоп
Это тоже миф.
замтил что сайты где установлен php_BB чаще посещаются ботами
этого мало. боты отлично отличают динамику по заголовкам "Last-Modified" и "Content-length". потому если хотите реально маскировать, прийдётся делать обработку запросов "If-Modified-since" и эмулировать "Last-Modified" (например я это делаю на http://ostrov.zp.ua)
ну тут вобще ничего сложного - ini_set('url_rewriter.tags','');