Солидарен с neznaika и DenProg.
Я считаю, что лучше всего совмещать. Сделать резину от 1024 до 1280. Это оптимально для проектов, где "много текста" - основа сайта. Если это промо сайт, то наверное 100%-ая резина будет смотреться круче.
Оки, закрыл в noindex все, что было открыто=)
Если поставить 1-2 жирных беков это может повлиять на выхождение сайта из бана или фильтров, что там=) И вообще наращиванием ссылочной массы можно выйти из этой ситуации?
А как это сделать для множества элементов?
Allow: /*/photo/$
Disallow: /*/photo/
?
ZlatoVlasska, все верно как я описал или как Цахес?=)
Оки, прописал в robots.txt основной адрес.
Но я думал, что если Платон пишет, в ответ на мой вопрос, что сайт забанен, то мне стоит поверить ему, тем более учитывая, что в панели вебмастера на яндексе пишут "страниц в индексе: 0".
А что если сайт можно добавить в Яндекс, то значит он не в бане? Я добавлял после бана пару раз. У меня тоже получалось это сделать.
В той же вебмастерской панели пишется, что последний раз робот посещал сайт 17 декабря. Но мне от этого не легче(
Да.. действительно впечатляет.
Пойду поищу по форуму на тему "не уникальный контент"=)
-scream-, грустно, особенно, учитывая тот факт, что везде стояла ссылка на источник (т.е. на Ваш сайт). Что как не это должно указывать на авторство (в нормальном мире, конечно=)).
По Вашим ссылка только 3 сайта, которые использовали контент + я проверил несколько внутренних страниц, тоже нашел пару сайтов, которые позаимствовали контент частично. Неужели из-за 5 +- сайтов обсуждаемый ресурс мог попасть в бан? Это ж не 1000 копий всех страниц сайта. Я думаю, сложно найти информацию в интернете, которая не дублировалась хотя бы раз. Так что ж теперь, пол инета в сад?=) Или я не прав?