- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
вот что происходит примерно на двухтысячном урле
http://gyazo.com/fecb887bc67b447f2da9118a074aa1eb
Видимо да, поисковики то ходят по таким страницами исключая страницу с $ а все что за ней учитывают
Примерно понятно. Прога такую схему не отработает. Программист озадачился )
вот что происходит примерно на двухтысячном урле
http://gyazo.com/fecb887bc67b447f2da9118a074aa1eb
Весьма "информативная" картинка... Киньте урл в личку, и с каким настройками парсили. На других сайта ошибка повторяется?
Доброго времени суток.
Сегодня купил программу, начал сканить свой форум. Ну для начала удивился что там куча страниц, устал ждать...
1. Нельзя как то газку добавить что бы сканилось все быстрее? Канал инета позволяет, комп вроде тоже не в 98 году куплен, а 3000 страниц сканил часа 2-3 не меньше.
2. Когда первый раз у меня прога с ошибкой ушла в не забытие, я как то не придал этому значение. Она тогда нашла всего 500 страниц. Но сейчас прога нашла 3300 страниц и закрылась с ошибкой.
Вот что выдала ошибка:
Stopped working
Файлы, содержащие сведения об этой проблеме:
C:\Users\Gal262\AppData\Local\Temp\WER3110.tmp.WERInternalMetadata.xml
C:\Users\Gal262\AppData\Local\Temp\WER4D29.tmp.mdmp
Ознакомьтесь с заявлением о конфиденциальности в Интернете:
http://go.microsoft.com/fwlink/?linkid=104288&clcid=0x0419
Если заявление о конфиденциальности в Интернете недоступно, ознакомьтесь с его локальным вариантом:
C:\Windows\system32\ru-RU\erofflps.txt
У меня Win7 x64 права Администратора стоят на прогу. В чем дело то?
Доброго времени суток.
Сегодня купил программу, начал сканить свой форум. Ну для начала удивился что там куча страниц, устал ждать...
1. Нельзя как то газку добавить что бы сканилось все быстрее? Канал инета позволяет, комп вроде тоже не в 98 году куплен, а 3000 страниц сканил часа 2-3 не меньше.
2. Когда первый раз у меня прога с ошибкой ушла в не забытие, я как то не придал этому значение. Она тогда нашла всего 500 страниц. Но сейчас прога нашла 3300 страниц и закрылась с ошибкой.
Вот что выдала ошибка:
У меня Win7 x64 права Администратора стоят на прогу. В чем дело то?
Программа не тянет более 10 тыс. страниц. Это на офф.сайте прописано
Сам из-за ограничения не могу некоторые сайты просканировать. Подвисает максимум на 3 500 странице (4Gb RAM).
Пишут, что во второй версии это будет исправлено. А когда будет 2 версия - неизвестно.
HeR0vn1k добавил 19.11.2011 в 10:18
Знаете, меня саму удивило такое количество. Я.Вм показывает, что бот обошел 35000 страниц. Мне казалось, что тыщ 50 реально есть... Но программа показала больше 90000, когда закончила сканировать.
Если честно, у меня была такая мысль... Я подождала часа 1.5, но потом решила на ночь комп выключить все-таки, чтоб не жужжал. Сегодня поставила ее еще раз этот же сайт сканировать. Пока что прога отображает 20000 страниц. Но, видимо, еще не вечер.
Anny добавил 17.11.2011 в 17:48
Все получилось. Действительно, она подвисает в процессе отображения этого безумного количества страниц. Примерно на 2 часа. :-)
А какая у Вас конфигурация компьютера? Хочу такое же количество страниц сканировать!
Так у меня и не 10тыс, 5000 даже не набралось.
Раз уж заговорили о кол-ве страниц. У меня форум IPB, на нем ну может тем 30-40 создано. А как выясняется страниц куча. Вроде и robots.txt стоит. Скажите, как на это боты реагируют? Стоит ли закрывать все это дело? И в обще, реально ли закрыть?
Так у меня и не 10тыс, 5000 даже не набралось.
Раз уж заговорили о кол-ве страниц. У меня форум IPB, на нем ну может тем 30-40 создано. А как выясняется страниц куча. Вроде и robots.txt стоит. Скажите, как на это боты реагируют? Стоит ли закрывать все это дело? И в обще, реально ли закрыть?
Закрывать стоит и закрыть реально.
Вычисляйте дубликаты по Вебмастеру. Можно на сортировки ставить атрибут rel="canonical".
Или на одинаковые параметры указывать правила в robots.txt
Закрывать стоит и закрыть реально.
Вычисляйте дубликаты по Вебмастеру. Можно на сортировки ставить атрибут rel="canonical".
Или на одинаковые параметры указывать правила в robots.txt
А можно поподробней? или ссылочку подкинь? А то я в этом деле начинающий...
А можно поподробней? или ссылочку подкинь? А то я в этом деле начинающий...
Да, пожалуйста.
Справка от Яндекс
Справка от Google
Sterh в обще коменты будут?! Я заплатил деньги за прогу, а проверить сайт не могу! За что деньги были уплочены то? Если прога криво работает под Win7 то правьте её или указывайте при продаже.
А чем лучше эта прога от того же linkoscop? которая мощнее, правильнее рассчитывает веса, плюсы и минусы и т.д. Ведь по ценам они же отличаются, так и не увидел внятного ответа на этот вопрос... Кто пользовался обеими программами, поделитесь впечатлениями.