- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Sterh, Доброго дня, у меня проблема. Купил программу Page-Weight Desktop? дома работает всё отлично. Но она нужна мне именно на работе, насколько я понял, у нас весь интернет идёт через прокси..
Наша служба поддержки пишет, что возможно эта программа использует свои определённые порты, когда достаёт информацию. Не могли бы вы написать здесь поподробнее, какие требования нужно выполнить на сетевом уровне, чтобы программа работала? Благодарю
Поддерживаю. Ооочень долго удаляет большое кол-во ссылок, а при попытке добавить 3500 ссылок просто ушла в стостяние "Не отвечает", хотя процесс продолжал грузить проц и хард время от времени моргал. Минут через 40 закрыл через три веселых кнопки. При запуске проги увидел, что все таки порядка 1600 ссылок добавилось. То есть прога в принципе работала и с большим усилием добавляла эти ссылки, однако на запросы пользователя никак не хотела отвечать.
Это пожалуй самый большой косяк. В остальном все гуд. Плюсов действительно больше, чем минусов.
Озадачились уже. Думаю в следующем обновлении будет исправлено.
И еще... Очень напрягает то, что при закрытии вкладки со ссылками на какую-то страницу, например, все колонки на вкладке со списком страниц и расчетом веса принимают ширину по умолчанию. В итоге приходится каждый раз снова и снова вручную расширять и сужать колнки, чтобы информация стала читаемой. Очень большая просьба сделать так, чтобы колнки во вкладках запоминали установленную вручную ширину
Сам постоянно воюю за ширину колонок )) Не смотря на численный перевес со стороны программистов, надеюсь победить :)
нашел баги в программе:
1. к сожалению в программе не учтена очень важная вещь:
<base href ="http://example.com/" />
из-за этого она некорректно индексирует сайт с данным тегом.
Еще с Lite переодически звучали вопросы по поводу base href Как показывает практика, в 99,9% случаев данный тэг используется криво. Т.е. проблема не в программе, а в коде сайта.
2. еще программа некорректно обрабатывает редирект с основного
домена на субдомен, в списке ссылок пишет URL основного домена, хотя
на самом деле этот URL на субдомене.
т.е. пишет в списке урл например
http://example.com/uri1.html - этого урл может не существовать на основном
домене
а должен писать
http://subdomain.example.com/uri1.html
редирект может быть вида:
http://example.com/uri2.html -> http://subdomain.example.com/uri1.html
Хорошо бы разработчикам исправить эти ошибки.
Можно УРЛ в личку, что бы смоделировать ситуацию?
Sterh, Доброго дня, у меня проблема. Купил программу Page-Weight Desktop? дома работает всё отлично. Но она нужна мне именно на работе, насколько я понял, у нас весь интернет идёт через прокси..
Наша служба поддержки пишет, что возможно эта программа использует свои определённые порты, когда достаёт информацию. Не могли бы вы написать здесь поподробнее, какие требования нужно выполнить на сетевом уровне, чтобы программа работала? Благодарю
Сейчас exp131 с обеда вернется, ответит. Я в программировании не разбираюсь :)
разочарован Page Weight Desktop,
старая Лайт нормально понимала User-agent: pageweight
эта не в какую не слушается.. к примеру http://wlad2.ru/robots.txt
- почему в тайтлах страниц показываются анкоры которые на нее ссылаются? что за бред..
- зачем было менять интерфейс? этот убогий до ужаса.
Обновление с поддержкой прокси, обработкой <base> и исправлениями по поддоменам будет скорее всего завтра. Соберем все вместе.
Мой сайт как-то не индексирует нормально, нашёл кучу 404, и всего 255 страниц вместо 1000.
Лично мне кажется проблема в виде ссылок а именно из-за:
file.php?foto=17&obj=2012-03-26
могу показать сайт в личку
А по моей проблеме есть какие то здвиги? в личку всё скидывал.
А по моей проблеме есть какие то здвиги? в личку всё скидывал.
Да, все получили. Сорри что не ответил в личку. С вашим сайтом тоже разбираемся. Скорее всего фикс включим в этот апдейт.
- зачем было менять интерфейс? этот убогий до ужаса.
- на вкус и цвет фломастеры разные :)
Остальные правки будут в ближайшем апдейте.
Ещё раз по картам. Я тут смотрю нет генерации HTML-карты как в 1.8, можно ли включить в ближайшем обновлении. А то из csv не очень удобно переделывать, и можно ли сделать авторазбивку по числу страниц, скажем указываю 500, если сайт состоит из 5000 страниц - то автоматом создаётся карта из 10 страниц. Идеально с постраничной навигацией внизу.
И чтобы перескан битых ссылок автоматом запускался, несколько раз по крайней мере - число раз указать. А то 1.8 всё сканирует с первого раза, а у 2.х часть неизменно в битые попадает - это из-за того что потоков наверно много стоит.
И кто мне напомнит как ещё один сканер сделать. Всё перещупал не могу найти. последнее обновление. Мне надо чтобы результаты сканирования с текущим сканером остались, хочу в новый загрузить список страниц из xml и сверить результаты.
Ещё раз по картам. Я тут смотрю нет генерации HTML-карты как в 1.8, можно ли включить в ближайшем обновлении. А то из csv не очень удобно переделывать, и можно ли сделать авторазбивку по числу страниц, скажем указываю 500, если сайт состоит из 5000 страниц - то автоматом создаётся карта из 10 страниц. Идеально с постраничной навигацией внизу.
Сделаем.
И чтобы перескан битых ссылок автоматом запускался, несколько раз по крайней мере - число раз указать. А то 1.8 всё сканирует с первого раза, а у 2.х часть неизменно в битые попадает - это из-за того что потоков наверно много стоит.
Да, именно из-за этого. Но с помощью уменьшения количества потоков и установки задержки можно добиться хороших результатов.
И кто мне напомнит как ещё один сканер сделать. Всё перещупал не могу найти. последнее обновление. Мне надо чтобы результаты сканирования с текущим сканером остались, хочу в новый загрузить список страниц из xml и сверить результаты.
Мы отказались от идеи нескольких сканеров на проект, т.к. набор результатов все равно был один и тот же. Создайте новый проект.
---------- Добавлено 16.11.2012 в 09:35 ----------
старая Лайт нормально понимала User-agent: pageweight
эта не в какую не слушается.. к примеру http://wlad2.ru/robots.txt
Проверили у себя, ошибок не нашли. Пришлите пожалуйста на support@page-weight.ru примеры страниц, которые не правильно обработаны.
- почему в тайтлах страниц показываются анкоры которые на нее ссылаются? что за бред..
При сканировании странички сохраняются все исходящие ссылки со своим текстом. Если ссылка закрыта роботс или битая, то она не сканируется и соответственно ее тайтл мы не получаем.
Да, именно из-за этого. Но с помощью уменьшения количества потоков и установки задержки можно добиться хороших результатов.
В битые 10% попадает обычно, при приличных задержаках, если ещё и потоки уменьшьшать вообще затянется. Автодоскан был бы удобнее, ведь если сервер отбил запрос - отклик же будет не 404, а какая-нибудь 500-х ошибка и в этих случаях автодоскан запустить.