vlav

vlav
Рейтинг
57
Регистрация
07.09.2004
link="www.url.ru/cat/*"

Поиск ограничивается страницами, которые ссылаются на заданный адрес (или адреса, с него начинающиеся, если в конце URL стоит *).

pagerank << link="www.google.com*"

Это пример из хелпа яндекса по языку запросов - можно в одном запросе задать link= c www и без?

А равно url= с www и без?

sslinker:

<?xml version="1.0" encoding="windows-1251" ?><request><query>link=&quot;"+ваш_сайт+"&quot;</query><groupings><groupby attr="d" mode="deep" groups-on-page="10" docs-in-group="1" /></groupings></request>

А как сделать такой же запрос, но для проверки есть ли link только в указаном сайте?

то есть добавить еще surl=http://.... ?

Каширин:
Секундочку! С этого места поподробнее, пожалуйста. Одно дело - парсить Яндекс для каких-то неизвестных :) целей. И совсем другое - ретранслировать и тиражировать эту информацию, даже со ссылкой. За это вас элементарно привлекут за нарушение авторских прав.

Немного другая постановка вопроса - если кто-то распространяет за деньги например скрипт, который включает в себя парсер? Предупреждая покупателя о возможных последствиях, но там запросов достаточно мало (скажем 500 штук и через случайные интервалы в несколько секунд). То есть бан крайне мало вероятен, но у этого скрипта есть сайт, он страшно популярен, продается за деньги, платятся налоги и им пользуется пол рунета?

(реальных аналогов такого скрипта не ищите- это просто теоретический пример)

Anton_42:
наконец-то я понял в чём djghjc :) странно что он возник... но мне кажется что никаких проблем с индексацией быть не должно, надо поискать 🚬
http://www.google.com/help/operators.html-спасибо!

пол дня уже прошло - однозначного ответа пока не прозвучало:)

AVV:
Anton_42

На странице

http://www.popularmechanics.com/technology/military_law/1227842.html?page=1

динамические урлы прописаны так:

<a href="/technology/military_law/1227842.html?page=2">

а вот, если бы было просто:

<a href="?page=2">

то индексировалось бы?

В этом, я так понял, и был вопрос топикстартера.

P.S. Анекдот хороший, хотя и с бородой. :)

Хороший, если он еще окажется правдой - четкого ответа с доказательствами в виде проиндексированной страницы, на которую ведут ТОЛЬКО ссылки такого рода - пока не прозвучало.🚬

Я же говорю там отличается алгоритм составления полного урл. Да и динамические страницы они исходно неуважают.

Если отвлечься от яндекса - на некоторых сайтах пишут "любое использование материалов запрещено и все в этом духе."

Логично, что если я ничего не подписывал и могу получить доступ к информации без предварительной простановки галочки под лицензией и какой либо персонализации, то они ничего не могут предъявить, особенно если я честно указываю на источник.

Иначе - зачем ее выкладывать в общий БЕСПЛАТНЫЙ доступ.

Anton_42:
Если правильно понял (а то каша полная написана), то вот Вам ссылка
http://www.google.com/search?num=20&hl=en&lr=&rls=GGGL%2CGGGL%3A2006-33%2CGGGL%3Aru&q=allinurl%3Apage%3D1&btnG=Search
всё прекрасно индексируется.

вот если page=1 - то навалом страниц с ссылками начинающимися с вопроса,

а если задать page=20 - то я проверил вручную несколько сайтов - везде есть имена файлов перед вопросом. Не знаю как это проверить автоматически.

Кстати - если не трудно - где описаны команды гугля ?

Рубильник:
индексируется <a href=?....>слово</a> Где бы она не стояла

Что-то остались у меня стойкие сомнения на этот счет.

Про гугл и рэмблер, повторяю. Может кто пример привести что это не так? А то даже смешно.

Продолжая свои посты: меня неделю назад разбанили.

И в своем усердии об информировании народа я случайно засветил свой е-мэйл

в этом посте: /ru/forum/comment/1520624

Просьба модераторов стереть его - я сам не могу!

Программа существенно модернизирована, а именно:

1. Доработан графический интерфейс

2. Возможность проверки каждой ссылки в каждом сайте - проиндексирована ли она яндексом.

3. Рассылка писем по результатам проверки - тем, у кого не найдена, у кого найдена, но не проиндексирована, и найдена и проиндексирована.

4. Скрипт для экспорта данных из любого каталога на базе mysql в файл, который можно подать на вход links_checker для проверки.

5. Бонус - бесплатный скрипт каталога ссылок

6. И старые функции - поиск во множестве сайтов с полным их обходом в несколько потоков с клиентской машины.

Просьба, посмотреть скриншоты на сайте и высказать свое мнение.

Links_cheker

Всего: 209