совсем-совсем одинаковые? параметры самих страниц, околоссылочный текст, количество иных внешних, бла-бла-бла... всё это идентичное? т.е. грубо говоря одна и та же страница с двумя разными адресами? тогда и вес будет одинаковый, имхо. вложенность на скорость индексации влияет, а не на вес.
SEO_87, поправка ж не заложена... ну.т.е прикинули Вы пр с четвёрочки... а она сама на апе до 2х упала? тогда как? а если пр поменялся на 5 000 страниц?
ну т.е. если уж считать, так давайте с учётом всех факторов, включая вероятностную составляющую недоступности серверов-доноров во время апа. вот. :)
vl77ru, ааа, я думал - Ваша заморочка :)
ага... а когда количество доменов переваливают за некую критическую отметку-договариваешся с регистратором и делаешся партнером. сам :) удобно :) и приторговывать можно, вполне себе сойдёт за побочку :)
а смысл подобных манипуляций? самому ниче в голову не приходит :) поясните плз
www.microsoft.com? дорого :(, хотя если грамотный варезник замутить, то окупится однозначно. www.kremlin.ru я бы постремался покупать, ибо пример с сами-знаете-кто2000.ru достаточно показателен :)
Вы ж не про спамзону, думаю? ибо оная ничем ни примечательна, имхо.
http://domains.onlineseo.ru
не все-все-все, а только по своей базе.
nic.ru и r01 палит, а вебнеймсовые мои не находит :)
как стартпойнт-вполне
masterlak, ну нафига
физически можно сколько угодно :) практически в живых должен остаться только один URL :)
вот тут дополнительная аргументация.
Изменил текст, сама иллюстрация пущай повесит, пока тема не сползет :) Сайт в дизаллове :) Экспериментальная площадка для пре-альфа-релизов, так что косяков там и без слэшей мама не горюй :)
А кто ж спорит? Решение-то простое, скриптом отдавать 200 только на 1 вариацию урла, на тайп-ин вариации 301, на откровенную подтасовку-404. при том, что даже при 404 нам никто не мешает демонстрировать нормальную страницу.
А то сайт в развязку на таганке превратится, не дай бог утреннюю, нам же нужен нормальный хайвей. и никаких проблем, ни у Вас с удвоенным количеством запросов к БД, ни у ПС с индексацией.
так проблема-то возникает как раз из-за того, что документ один и тот же, а адреса разные. Вы не под тем углом смотрите.
угу. в примере ниже 3 варианта одного урл:
т.е. 3 дубля одной страницы, равноправно претендующих на индексацию.
поклеили. 10 раз поклеили, 100 раз поклеили.
а когда у Вас на сайте 10 000 страниц, у Вас ПС сколько дублей увидит? по мне, так нехай он лучше чаще на сайт быстророботом бегает, чем порожняк в базу грузит и потом думает че куда клеить. мне проще 1-2 директивы в хтакцессе прописать, потому, что мне надо, чтобы яндекс меня индексировал, а не Яндекс без моих дублей от ломок чешется.
терпение-то, оно не бесконечное, у роботов в том числе.
toxic steel добавил 18.11.2008 в 22:15
в выдаче не приведу, ибо лень в выдачу сиё вгонять, а наглядно продемонстрирую:
вариант 1 (урл закрыт слэшом):
http://7860096.ru/shop/showcategory/41/
и вариант 2, урл "открыт":
http://7860096.ru/shop/showcategory/41
вуаля :)
а это косяк, согласен, не ту строку скопировал, имелась ввиду:
Disallow: /yca
прошу прощение, за невнимательность, привёдшую к "левой аргументации".
с точки зрения робота-существенная.
плохо. очень плохо.
ну коль ориентируетесь на яшу, то не забудте в роботс.тхт прописать запрет директории на индексацию. У самого яши:
User-agent: *
<...>
Disallow: /yaca/ //не ту строчку скопировал, дальше отписал :)
тогда проблем с дублями не будет.