Dank0

Рейтинг
32
Регистрация
06.01.2008

Видел этот дор, ссылки у него действительно очень интересные. Сама структура и все подобное - хорошо обработанный текст уже самим гуглом. У меня есть скрипт анализа выдачи гугла, который анализирует выдачу по тому или иному запросу и смотрит что же выделила поисковая система в сайтах в выдаче и другое. Сделать можно PHP - Curl. Есть у меня скрипт, но из-за аякса сейчас не работает (на обычной выдаче, на мобилной можно дописать будет сохранять страницы выдачи и менять ссылки).

Кстати такие доры я видел когда ими занимался года 3 назад. Сейчас пока читал что тут произошло и стоит ли снова попробовать нашел этот дор ) кстати карты сайта в нем я так и не нашел.

ttyck - читаю Ваш блог, много интересного, только мало пишите :)

И какие нормальные вы посоветуете? :)

Спасибо автору - понравился софт :) хоть что-то бесплатное есть, с приличным функционалом.

просто для каждой категории можно было сделать собственное облако тегов, а так понравился дор. Обзаведусь желанием купить дорген - посмотрю в сторону этого :)

Интересный дор. Один вопрос, на всех страницах в облаке тегов ссылки только на одну категорию? или я просто так попал на всех страницах...

Можно пример дора в личку? :)

Автор :) ответь пожалуйста :) я очень хочу купить твой продукт !!! :)

можно и мне бесплатный(даже платный можно 8) ) только в аське вас нету ответьте 714-7четыре-7восем.

Спасибо.

хех... вроде все соображающие люди, но понаписывали же ведь уже 4-е страницы а толковых советов НОЛЬ и даже меньше.

Цитировать не буду всем кто писал и.т.д. про свои файловые системы, про то как хорошо подогнать, и про то как вы сдуваете весь сайт....

Могу сказать одно выдрать пусть не всегда качественно всю статью - можно. Пусть в 70% ты вырвешь все полностью а в 30% скрипт отбросит статью ибо не сможет решить она ли это, но это лучше чем скачать сайт и сделать дубликат всего что там есть и все в куче без тематик и.т.д. ( более подробных тематик имеется ввиду) то как говорили выше- вперед и с песней на все что уже есть, но если у вас при каждом парсинге по 1000 источников и с каждого источника вы заберете максимум 10 статей? стоит ли подгонять скрипт?? вообщем тема угасла проще самому додумать то что уже есть...

З.Ы.

Видел результаты парсера который в 70% минимум все выдерает ☝.

12
Всего: 14