Можно, особенно если речь идёт о буржунете, где рейты гораздо выше и гугл не так сильно пинает за загрузчики.
Я лишь привёл имеющиеся факты и рассуждения по проблеме. Может если об этом чаще говорить, то как раз download пп так же начнут своё перерождение, перестанут заниматься лишь "очисткой" от детектов АВ и предложат действительно что-то новое и белое. И как бы вы там не прятали свой загрузчик - спалить его всё равно можно, так как далеко не всегда Яша делает это на автомате с помощью своих алгоритмов.
Не спорю. Ну а что вы предлагаете? Идти войной на Яндекс и пытаться им навязать свою, чуждую для них точку зрения? Выбора-то по сути нет - либо играть по их правилам (даже не всегда честным) или сидеть на обочине (в лучшем случае в конце выдачи).
Получилось. Скрипт работает, пишите в личку, если нужен.
ТЗ выкладывать не вижу смысла. Может еще нашу переписку попросите? Это лишнее. Тут смысл не в сложности задания, а в том, что исполнитель не предупредил о том, что оплаченные часы работы закончились, но сама работа не остановилась. А в конце получился лёгкий шантаж - оплата или они все откатывают (удаляют). Причем второй вариант мог начать обиды, военные действия и даже месть - удалили бы "случайно" весь проект. Такое в соседних топиках уже обсуждалось.
Так что найденный компромисс в виде адекватного ценника и рассрочки меня удовлетворил.
На счёт покупки опыта - согласен на все 100%.
Хром начал блокировать загрузчик.
Подскажите, в кабинете отображается актуальный домен (генератор ссылок и в описании кода)?
По сути это будут взаимоисключающие условия, конфликт понятий. По сути сайтмап говорит, что индексировать, а роботс - наоборот запрещает.
Да и вообще я так смотрю - у вас всё неправильно. В сайтмапе должны быть основные страницы сайта, даже можно без категорий. Неудели нельзя сайтмап редактировать? Какая у вас CMS?---------- Добавлено 28.07.2014 в 15:12 ----------Если в сайтмапе появятся запрещенные к индексации урлы - в панелях вебмастера будут сообщения об ошибках, что какбэ намекаэ, что так лучше не делать
В robots.txt дописать строку:
Disallow: */page=*
Что выкинет из индекса все эти страницы.
А если вопрос в том, что нужно сохранить их в индексе, но убрать дубли, то нужно для каждой из страниц page=1, page=2, page=3 ... прописать уникальный статичный текст. ИМХО в таком варианте геморроя гораздо больше и не вижу смысла это делать.
Скрипт уже готов, осталось концы связать. Как доделаю - отпишусь о результате.