smallkreker, Подскажу этот скрипт
По поводу 20тыс. запросов не знаю, но с 3тыс. легко справляется.
Какие проблемы дублированную инфу в <noindex>
iceek, не сталкивался. но по-моему тут очевидно есть 2 выхода.
1. забить на бабки и сидеть ничего не делать
2. писать в саппорт с просьбой пояснить за что, и как можно получить честно заработанные деньги.
Да правильно поняли.
Если новые страницы будут полными копиями новых, то ставьте со старых страниц на новые 301 редирект.
Выберите по одной странице с каждым из примеров, а остальные дубли запретите к индексации в robots.txt
Фильтров скорее всего не будет со стороны ПС, но и ничего хорошего не будет с того, что на сайте дублей куча.
ТС, если не надолго то скорее всего ничего не будет, т.к. за короткое время много ссылок не отвалятся, соот. не будет резкого падения и роста ссылочной.
Если ссылки уже сняты, то надо было мониторить, сколько было, сколько на сегодня после апа прикинуть процент который отвалился и тогда уже думать будет ли, что если их вернуть.
Сделайте заранее карты сайта html и xml и залейте перед тем, как все урлы сменяться.
Либо сделайте другой сайт, как будет готов к использованию новый сайт, просто повесьте при входе на сайт табличку "уважаемые пользователи сайт компании такой-то переехал на новый адрес, через несколько секунд вы будете перенаправлены" как-то так.
tysson, тут как повезет работаю с 4-мя магазина.
1. оригинал контент писался ручками года 3-4 назад.
2. контент был взят с 1, в итоге яндекс зафильтровал, сделали рерайт 6тыс. наименований товара, в итоге яша снял фильтры только после упорной переписки с платоном и доказывания, что контент писался собственно ручно год. (дело в том, что сайт попал под фильтры еще когда контент был копи паст)
3. контент взять с 1 сайта, все в индексе и отлично работает.
4. тоже самое, что с 3.
Так, что тут не поймешь, как повезет, но для страховки лучше конечно как-то уникализировать контент. Не хотите писать, есть другие способы уникализации страниц н-р: сделайте модуль, который будет выводить внизу страницы "лучший товар" или "вместе с этим товаром покупают" и там рандомом вывод позиций - иногда помогало.
Morfin, вы бы запрос озвучили, тогда вам дали бы более дельные советы
1. контент должен быть уникальным, в % соот. затрудняюсь сказать думаю не более 5%, уже давно как то интуитивно делаются тексты и не высчитываю никакие %.
3. используйте в тайтле ключевые слова, по которым продвигается страница, убирайте все лишнее с заголовка, делайте его информативным и кликабельным, чтобы юзер увидев заголовок вашего сайта в выдаче захотел на него зайти.
4. создайте html и xml карты сайты, xml загрузите в панеле веб-мастера, правильно составьте файл robots.txt
5. ставьте счетчики в <noindex>, по верстке лучше, если по коду тексты будут идти сверху сайта, а после уже все остальные блоки, которые не несут особой информации.
Вообще много чего можно написать на ваши вопросы, что я пропустил думаю след. участник восполнит.