Поиск на майле практически на 100% повторяет выдачу гугла, один в один (ну разве что иногда некоторые сайты в поиске майла отсутсвуют, но даже порядок одинаков). Пример: url1 и url2
Вопрос какой смысл в сообществе, если в поиск майла просто выдается поиск от гугла? Какие новинки можно планировать если используется выдача другой ПС?
Ну да, ну да писать все статьи без предлогов, союзов, местоимений. А потом попытайтесь понять что вы написали.
С какого перепугу? Попробуйте написать любой текст без предлогов, союзов, местоимений и т.п., те вы только что сказали что Яндекс не любит вообще все тексты написанные на русском языке, кроме поискового спама.
P.S. Конечно писать текст на 90% состоящий из стоп слов не стоит, тогда Я возможно и обидится, в остальном на них нет ограничений (они просто будут исключены из индекса).
Теоретически можно анализировать переходы с яндеса скриптом (через reference) и если был переход по определенному запросу делать редирект на нужную страницу. Такая фокус давно у меня работает и санкций со стороны ПС замечено не было. По логики делать редирект с одной страницы сайта на другую того же сайт можно без каких-либо ограничений.
P.S. Кому интересно могу прислать php скрипт.
Это все не поможет, если надо тысячи запросов в сутки гонять, забанят просто по кол-ву запросов (+ отсутствию переходов, JS и загрузки картинок).
WhiteSmartFox добавил 16-12-2010 в 18:16
Описался, он тут не причем
Гмм, в чем проблема делаешь 10 юзеров и подтверждаешь 10 телефонов (попроси друзей, родных), кучу ip адресов можно получить скажем подключив мобильный 3G модем, там каждое подключение новый ip адрес, будет тебе 10к в сутки.
P.S. Кажется я понимаю почему тебя забанили, если тебе 1к запросов в сутки мало, то конечно тебя любой ПС забанит, у меня одиночные запросы через file_get_contents работали на ура, если конечно посылать по 100 запросов в минуту забанят быстро.
WhiteSmartFox добавил 16-12-2010 в 18:12
А в чем проблема скачать и поставить? Там все элементарно.
А User-Agent, Reference, java-script?
Как минимум используйте curl + эмуляцию User-Agent'а какого либо браузера.
А вообще есть же xml.yandex.ru, чем вас он не устроил? Там не банят.
у меня все работает, все перечисленные запросы.
Нет не у всех, откройте 25-26 страницу выдачи к примеру, кстати сравнил несколько страниц те у которых нет ссылки копия в выдаче содержат <meta http-equiv="Pragma" content="no-cache">, те у которых есть ссылка копия не содержат этого тега.
Да, не кешировать на уровне прокси сервера и браузера (по большому счету не должно влиять на ПС), я же сказал бредовое предположение что типа того что ПС видит что страница часто обновляется => не стоит заморачиватся и добавлять в кеш, т.к. все равно скоро обновится.
P.S. Все выше даже не ИМХО, а так притянутые за волосы рассуждения за неимением лучшего, с вероятностью 50/50 (естественно экспериментов не ставил).
Человек сказал что страница есть в выдаче, но нет ссылочки кеш страницы в выдаче.