big boy

big boy
Рейтинг
365
Регистрация
18.11.2006
Должность
webmaster
nicetest:
Так что вариант - делать больше сайтов под гугл.

Можно, особенно если речь идёт о буржунете, где рейты гораздо выше и гугл не так сильно пинает за загрузчики.

Uporot:
ТС, ищи способы а не кричи "всё пропало"

Я лишь привёл имеющиеся факты и рассуждения по проблеме. Может если об этом чаще говорить, то как раз download пп так же начнут своё перерождение, перестанут заниматься лишь "очисткой" от детектов АВ и предложат действительно что-то новое и белое. И как бы вы там не прятали свой загрузчик - спалить его всё равно можно, так как далеко не всегда Яша делает это на автомате с помощью своих алгоритмов.

nicetest:
Так что все это - лишь борьба яндекса с конкурентами.

Не спорю. Ну а что вы предлагаете? Идти войной на Яндекс и пытаться им навязать свою, чуждую для них точку зрения? Выбора-то по сути нет - либо играть по их правилам (даже не всегда честным) или сидеть на обочине (в лучшем случае в конце выдачи).

lomster7:
Ок, если получится будет очень славно :)

Получилось. Скрипт работает, пишите в личку, если нужен.

ТЗ выкладывать не вижу смысла. Может еще нашу переписку попросите? Это лишнее. Тут смысл не в сложности задания, а в том, что исполнитель не предупредил о том, что оплаченные часы работы закончились, но сама работа не остановилась. А в конце получился лёгкий шантаж - оплата или они все откатывают (удаляют). Причем второй вариант мог начать обиды, военные действия и даже месть - удалили бы "случайно" весь проект. Такое в соседних топиках уже обсуждалось.

Так что найденный компромисс в виде адекватного ценника и рассрочки меня удовлетворил.

На счёт покупки опыта - согласен на все 100%.

Хром начал блокировать загрузчик.

Подскажите, в кабинете отображается актуальный домен (генератор ссылок и в описании кода)?

Beregin:


Спасибо, идея хорошая, да только есть одно "но": запрещенные в robots.txt страницы останутся в sitemap.

Но ведь это тоже плохо?

По сути это будут взаимоисключающие условия, конфликт понятий. По сути сайтмап говорит, что индексировать, а роботс - наоборот запрещает.

Да и вообще я так смотрю - у вас всё неправильно. В сайтмапе должны быть основные страницы сайта, даже можно без категорий. Неудели нельзя сайтмап редактировать? Какая у вас CMS?

---------- Добавлено 28.07.2014 в 15:12 ----------

Если в сайтмапе появятся запрещенные к индексации урлы - в панелях вебмастера будут сообщения об ошибках, что какбэ намекаэ, что так лучше не делать

В robots.txt дописать строку:

Disallow: */page=*

Что выкинет из индекса все эти страницы.

А если вопрос в том, что нужно сохранить их в индексе, но убрать дубли, то нужно для каждой из страниц page=1, page=2, page=3 ... прописать уникальный статичный текст. ИМХО в таком варианте геморроя гораздо больше и не вижу смысла это делать.

lomster7:
Слежу за темой, тоже надо такое, ТС, отпишешь если удастся поменять содержимое (стили) iframe'а.

Скрипт уже готов, осталось концы связать. Как доделаю - отпишусь о результате.

Всего: 2924