sokol_jack

Рейтинг
78
Регистрация
16.03.2008
k.d.r:
Да не вопрос, если у тебя есть связи и кучу денег - бомби.
А я тебе скажу просто, что такие как ты должны помалкивать, т.к. мало чего интересного. Ясно выразился? Ну в общем был мягко послан.

Ну, теперь не удивляйтесь - хамов тут не любят. Там от меня привет. Ага, в этой самой ;)

Уф, короче мне нет смысла с вами спорить. К примеру если приведу сайт, который начинал так же жить как я планирую чтобы жили созданные 10 сайтов этих, то это заставит вас всех обдумать ваши слова и то что вы были несколько не правы. Правда есть нюансы.

Угу. Точно. И 100% все 10 сайтов повторят историю успеха этого одного. Главное, чтобы Яндекс об этом знал. А то он глупенький даже нормальные сайты периодически из индекса выбрасывает, а уж копипаст - просто лотерея. И вылетает иногда просто так...

Сайт наполнялся давно, и сейчас около 200 000 страниц + после того как забили базу, его начали раскручивать. Сайт полностью из грабленных новостей.

И? У меня таких примеров десяток есть.

Pall:
Многоуважаемый Miraj не сотрудник Яндекс ;)

:)

Однако никто пока не усомнился в том, что ГС в его сервисе отсутствуют, так?

Грубо говоря - присутствие площадки в Миралинкс - почти гарантия, что сайт не УГ.

Pall:
Вот тогда пишите в саппорт :)
Сколько выпавших сайтов с этого форума ни пересмотрел - все затыкаются на этапе выбора хостинга... Единицы не могут справиться со своими руками и нормально настроить двиг с .htaccess...
А у остальных алгоритмы Яндекса отрабатывают более чем справедливо :)

Знаете, что самое интересное?

Что все мои сайты, которые выпадали из индекса Яндекса и не возвращались туда сами по себе за 2-3 апа ... возвращались туда после переписки с Платоном. Понятное дело, что никакой "ликвидации нарушений" не проводилось (нарушений и небыло).

Присутствие сайта в системе, которая у вас в подписи ;) - достаточно веский аргумет, чтобы усомнится в "А у остальных алгоритмы Яндекса отрабатывают более чем справедливо"?

Адепт:
sokol_jack, так Вы внешних-жирных ставить будете? :)

Хех... Если бы проблема была в том, что сайт просто не в индексе (но индексация не запрещена) - ясное дело что немного жирных ссылочек - и бинго.

А тут - фиг его знает что делать. Со своих сайтов ссылочки ставить - так ЯШка еще решит, что мои сайты на плохой ссылаются, надо бы их тоже того :D

sokol_jack добавил 12.12.2008 в 17:10

aalexeev:
есть робот индексатор, а есть робот который дает индексатору очередь. У них разный IP и ID. Вы ищщите первого а его там и не было.

Молодой человек, я похож на идиота?

И очередь роботу индексатору дает таки робот индексатор.

Или вы считаете, что я не знаю про существование "Yandex/1.03.003 (compatible; Win16; D)"?

sokol_jack добавил 12.12.2008 в 17:12

Пум-пум-пурурум.

Здравствуйте!

Следуйте нашим рекомендациям, развивайте Ваш сайт для пользователей, со
временем он появится в поиске.

--
С уважением, Платон Щукин

Ни слова о:

> Как я уже писал - сайт новый, домен - новый. Посещений робота Яндекса в
> лог-файлах не зафиксированно.
> Анализ и классификацию каких страниц проводили ваши алгоритмы?
Константинович:
Не скажите, в какую цену такая прожка стоит и продается ли вообще?

Сама прожка - не дорого думаю, основная проблема - проверять тысячи ТЫЦов без капчи от Яшки :)

Это вам не индексацию через мыло.ру проверять - тут вобщем-то только задержки между запросами + куча ИП помогают... 🙅

2 поставлю :)

2Garin:
но Zebrum настолько прост, что для того чтобы сайт начал работать его нужно просто залить на хост! больше ничего не требуется!

Если юзать кеш - то надо еще права на запись в папку cache ему дать ;)

Расскажите разницу между каталогами (1875 каталогов и 21542 каталогов), может запишусь...

Ну удержался и отправил проект с sokol_jack гав мыло.ру :)

wolf:
А вот всем бы повод задуматься - как это хитрые алгоритмы банят УГ на подлете, даже не засылая робота ;)

Осталось только задуматся, как это хитрые алгоритмы банят неУГ "на подлете, даже не засылая робота ;)".

Всего: 1527