Page Weight. Программа для настройки перелинковки сайта . Часть 2

Sterh
На сайте с 15.06.2006
Offline
226
#861
burunduk:
Sterh, осталась тока с выгрузкой разобраться, а то слишком много там \n \r
и кстати было бы не плохо по умолчанию проводить замену мнемокода на символы http://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%B5%D0%BC%D0%BE%D0%BD%D0%B8%D0%BA%D0%B8_%D0%B2_HTML

Ок. Как раз сейчас мелочи шлифуем.... хэлп вот только что дописал.. :)

Программа для настройки внутренней перелинковки сайта: купить (http://www.page-weight.ru/) Проверка внешних ссылок на сайт (https://backlink.page-weight.ru) (когда Ахрефс дорого) Возьму на продвижение пару магазинов, & SEO консультации (/ru/forum/987866) для сложных случаев.
[Удален]
#862

Sterh, кстати встречал когда вместо

'
используется конструкция
&#39: или даже
&#039:
и
&amp:#039:
E1
На сайте с 26.05.2010
Offline
69
#863
burunduk:

и кстати было бы не плохо по умолчанию проводить замену мнемокода на символы http://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%B5%D0%BC%D0%BE%D0%BD%D0%B8%D0%BA%D0%B8_%D0%B2_HTML

Мы хотели это сделать, но столкнулись с проблемой, что после преобразования ссылка становится не верной, некоторые сервера понимают только мнемокод, и преобразованная ссылка выдает 404 "Не найдено". А программа пока не обладает интеллектом отличить когда нужно делать преобразования (и обратные тоже), а когда нет. Поэтому все ссылки показываются "как есть".

Программа настройки перелинковки сайта: купить на сайте (http://www.page-weight.ru/).
[Удален]
#864

exp131, вопрос даже не про ссылки, а про данные (title, анкоры), уже после парсинга в выгрузке в excel :)

[Удален]
#865

Online версия сканирует третьи сутки, беда...

S2
На сайте с 07.01.2008
Offline
611
#866

И это при том что 1.8. - сканирует идеально - и без ошибок в титлах и в экспорте порядок, вот только медленно. Почему не взять как там распознание работает.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
E1
На сайте с 26.05.2010
Offline
69
#867
Str256:
И это при том что 1.8. - сканирует идеально - и без ошибок в титлах и в экспорте порядок, вот только медленно. Почему не взять как там распознание работает.

Сделаем преобразование тайтлов и анкоров, но оставим ссылки как есть.

S2
На сайте с 07.01.2008
Offline
611
#868

Бывают на некоторых самописках урлы в которых встречаются точка с запятой. Поэтому при экспорте, полная хрень получается. нужно выбор типа разделителя при экспорте, к примеру таб, а отдавать в тхт. А если в экселе отдавать для небольших сайтов, то по возможности, в одном документе в разных листах: страницы, битые, внешние.

[Удален]
#869

Совсем не понравился подход онлайн версии.

На сайте 3500 страниц. Указал, что 4000, чтобы был какой-то лимит при сканировании. Оплатил 100 рублей, как запросили. Программа трое! суток что-то там сканировала, затем выдала, что

Страниц в Яндексе: 3 768
Страниц в Google: 9 430
Страниц найдено: 357 861
Страниц без ошибок: 357 001
Ссылок всего: 21 665 743
Внеш./битых ссылок: 352 007
Уникальных анкоров: 4 099

Требуется доплата 585.13p, от заявленных 100. Совсем не честно. Доплату нужно спрашивать как исчерпался мой ста-рублёвый лимит, приостанавливая сканирование. Как оплачу - продолжить. А то сейчас ни отчета не получил, ни ваш софт денег. В результате вы отработали в пустую же? И клиент мягко говоря в недоумении. А посмотреть отчет очень хотелось бы конечно...

S2
На сайте с 07.01.2008
Offline
611
#870

allianceer, бывает, если много лишних параметров. к примеру выбор товара по многим критериям - и каждый критерий формирует отдельную страницу. стоит дубли в роботсе запрещать.

Кстати, ТС такой вопрос, может стоит слелать возможным сканирование по sitemap.xml - на многих сайтах они выложены в роботс.тхт т.е. сканировать их на ссылки, а потом просто проходить по этим ссылкам - может ещё ускориться.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий