- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Спасибо, немного помогло, во всяком случае сканирование закончилось. Только я не пойму зачем мне программа показывает теперь в результатах сканирования ссылки, которые были закрыты для индексации - тэги, страницы с ?. Зачем мне нужен этот мусор?
Этот "мусор" нужен для правильного расчета веса. Если не хотите его видеть нажмите кнопку "Скрыть закрытое".
А можно чтобы в процессе сканирования, в списке который виден с уже просканированными ссыллками - рядом с ними писало время через которое после запроса был получен доступ к странице?
А то иногда всё так медлено сканируется и не понятно, то ли ссылок очень много на странице нашлось, то ли комп притормаживает, то ли сервер медленно информацию отдаёт.
Этот "мусор" нужен для правильного расчета веса. Если не хотите его видеть нажмите кнопку "Скрыть закрытое".
Не, не работает как надо. Виснет программа полностью как только нажимаю на эту кнопку. А когда через минут десять отвисает, то все равно показывает урлы с вопросительным знаком, только tags убирает. Это ДО расчета веса. После расчета веса виснет все и намертво (виснет, в смыле становится белым и ни на что не реагирует). Нет, если урлов пара тысяч то все отлично. А вот 25 тысяч - пиши пропало - висит.
И почему уровень везде 0 стоит?
2 Nina
Как то странно все.. можно урл в личку?
Это потому, что вы наверно, после того как изменили юзер-агент не начали заново, а продолжили сканирование. У меня же точно такая ситуация была. Я выше писал. Мне сказали удалить проект и сканировать заново, и тогда нормально стало и уровни проявились.
У меня начался такой же беспредел как и у Nina. Как уже говорил, закрывал программу вчера утром, а потом запустил заново - без удаления проекта и видно зря. Надавно скан завершился, заняв в 2 раза больше времени. В конце выдал такую ошибку:
[ATTACH]116774[/ATTACH]
После чего программа закрылась. Открыл заново - смотрю результаты - пусто - нули везде нарисованы, открываю страницы - там - все страницы в 2-х экземплярах обычная и с rss😡 ну ладно, вспомнил ваш совет Nina - нажал скрыть закрытые. Они скрылись, но число страниц осталось прежним - только они стали идти не по порядку, а перескоками, так как половина стала невидна. И понять сколько реально страниц осталось оказалось невозможно, сортировка по номерам ничего не дала. Ну думаю, чёрт с этим. Сделаю карту сайта..., примерно знал сколько страниц должно быть на сайте. Указал число ссылок на странице, указал сохранить - и страниц оказалось вдвое больше. Так как в карту сайта вошли и все rss ссылки, в перемешку с обычными😡
Не надо вообще сканировать то что закрыто. Веса считаются по тем страницам что будут в индексе, а не всем что есть на сайте. А то что закрыто в индексе не будет.
Уже год слежу за программой, или даже больше!!! А глюки как были так и есть и нормальной версии похоже не видать...
ТС, вы бы уже не мучали ни себя ни людей, выложили бы формулы и мы сами накодили нормальный безглючный вариант...
Или наймите нормальных кодеров и тестировщиков, протестируйте на сотне сайтов, и вылаживайте на продажу...
А то прога и идея супер, а реализация говно...
P.S. Помню, купил, попробовал, глюк на глюке, попросил вернуть деньги, вернули - спасибо. Сейчас купил бы, но ситуация та же самая... доколе? Когда будет рабочий не глючный вариант?
Уже год слежу за программой, или даже больше!!! А глюки как были так и есть и нормальной версии похоже не видать...
Есть категория людей, которые везде амна отыщут.
ТС, вы бы уже не мучали ни себя ни людей, выложили бы формулы и мы сами накодили нормальный безглючный вариант...
Формула опубликована более 10 лет назад, и любой оптимизатор её знает. Берите, кодьте, а потом приходите сюда понты раскидывать.
---------- Добавлено 28.11.2012 в 09:11 ----------
Не надо вообще сканировать то что закрыто. Веса считаются по тем страницам что будут в индексе, а не всем что есть на сайте. А то что закрыто в индексе не будет.
Дык и не сканируем. В базу пишется только УРЛ, точно так же, как и с внешними ссылками.
У меня начался такой же беспредел как и у Nina.
Написал в личку. Постараемся максимально быстро разобраться и устранить недочеты.
Есть категория людей, которые везде амна отыщут.
Судя по кол-ву страниц в этом топике и кол-ву багов, я не один такой....;)