WhiteSmartFox

Рейтинг
25
Регистрация
17.11.2010
ssoll:
В сообществе вы можете узнать все о последних новинках и улучшениях на проекте, почитать исследования и многое другое.

Поиск на майле практически на 100% повторяет выдачу гугла, один в один (ну разве что иногда некоторые сайты в поиске майла отсутсвуют, но даже порядок одинаков). Пример: url1 и url2

Вопрос какой смысл в сообществе, если в поиск майла просто выдается поиск от гугла? Какие новинки можно планировать если используется выдача другой ПС?

prcomm-seo:
Лучше их избегать

Ну да, ну да писать все статьи без предлогов, союзов, местоимений. А потом попытайтесь понять что вы написали.

prcomm-seo:
но в тоже время он их и не очень любит

С какого перепугу? Попробуйте написать любой текст без предлогов, союзов, местоимений и т.п., те вы только что сказали что Яндекс не любит вообще все тексты написанные на русском языке, кроме поискового спама.

P.S. Конечно писать текст на 90% состоящий из стоп слов не стоит, тогда Я возможно и обидится, в остальном на них нет ограничений (они просто будут исключены из индекса).

Теоретически можно анализировать переходы с яндеса скриптом (через reference) и если был переход по определенному запросу делать редирект на нужную страницу. Такая фокус давно у меня работает и санкций со стороны ПС замечено не было. По логики делать редирект с одной страницы сайта на другую того же сайт можно без каких-либо ограничений.

P.S. Кому интересно могу прислать php скрипт.

alex.kwan:
у file_get_contents есть параметр куда можно передавать результат функции сreate_stream_context. В этой функции можно указать все, что вам нужно

Это все не поможет, если надо тысячи запросов в сутки гонять, забанят просто по кол-ву запросов (+ отсутствию переходов, JS и загрузки картинок).

WhiteSmartFox добавил 16-12-2010 в 18:16

leo3331:
Reference это что?

Описался, он тут не причем

Kroid:
Не более 1к раз в сутки немного удручает.

Гмм, в чем проблема делаешь 10 юзеров и подтверждаешь 10 телефонов (попроси друзей, родных), кучу ip адресов можно получить скажем подключив мобильный 3G модем, там каждое подключение новый ip адрес, будет тебе 10к в сутки.

P.S. Кажется я понимаю почему тебя забанили, если тебе 1к запросов в сутки мало, то конечно тебя любой ПС забанит, у меня одиночные запросы через file_get_contents работали на ура, если конечно посылать по 100 запросов в минуту забанят быстро.

WhiteSmartFox добавил 16-12-2010 в 18:12

Kroid:
На денвере курла нет,парсю простым file_get_contents()

А в чем проблема скачать и поставить? Там все элементарно.

Kroid:
Как так, ip же одинаковый

А User-Agent, Reference, java-script?

Как минимум используйте curl + эмуляцию User-Agent'а какого либо браузера.

А вообще есть же xml.yandex.ru, чем вас он не устроил? Там не банят.

у меня все работает, все перечисленные запросы.

komdir:
И у всех этих страниц есть кеш.

Нет не у всех, откройте 25-26 страницу выдачи к примеру, кстати сравнил несколько страниц те у которых нет ссылки копия в выдаче содержат <meta http-equiv="Pragma" content="no-cache">, те у которых есть ссылка копия не содержат этого тега.

komdir:
Вы сами то понимаете значение этих тегов?

Да, не кешировать на уровне прокси сервера и браузера (по большому счету не должно влиять на ПС), я же сказал бредовое предположение что типа того что ПС видит что страница часто обновляется => не стоит заморачиватся и добавлять в кеш, т.к. все равно скоро обновится.

P.S. Все выше даже не ИМХО, а так притянутые за волосы рассуждения за неимением лучшего, с вероятностью 50/50 (естественно экспериментов не ставил).

komdir:
Нет кеша страницы - страница отсутствует в выдаче

Человек сказал что страница есть в выдаче, но нет ссылочки кеш страницы в выдаче.

Всего: 419