- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
с месяца 2 назад хвалили тут сильно - поищи.
Думаю приобрести каталог WebCAT Professional (он кстати к новому году подешевел)... Ни кто не пробовал его использовать? Меня интересует в нем система авторейтинга с автоматической проверкой ссылок.
Один мой знакомый приобрел этот WebCAT, установил на своем сайте, а он через некоторое время перестал определять и обновлять тИЦ сайтов, находящихся в каталоге. Оказывается Яндекс заблокировал IP, с которого скрипт производил автоматические запросы и похоже ещё не скоро его разблокирует. Вот тема:
/ru/forum/31326
Странно, у меня тоже есть каталог, который делает запросы на Яндекс, но он что-то пока не торопится блокировать IP сервера.
Один мой знакомый приобрел этот WebCAT, установил на своем сайте, а он через некоторое время перестал определять и обновлять тИЦ сайтов, находящихся в каталоге. Оказывается Яндекс заблокировал IP, с которого скрипт производил автоматические запросы и похоже ещё не скоро его разблокирует. Вот тема:
/ru/forum/31326
Странно, у меня тоже есть каталог, который делает запросы на Яндекс, но он что-то пока не торопится блокировать IP сервера.
Интересно создатели WebCAT как прокоментируют это сообщение? Если они здесь присутствуют...
Интересно создатели WebCAT как прокоментируют это сообщение? Если они здесь присутствуют...
Почти не присутствуют.
Но многие вопросы можете узнавать у меня я этот каталог уже месяц ломаю и дизайн мне пишут
Вот что получается http://www.linksgold.ru
После этого недоразумения был изменен алгоритм проверки ТИЦ
Ранее он проверялся для всех сайтов скопом и соответственно на яндекс шло 7000 и более запросов . Лимит яндеекса 5000 в месяц.
Сейчас алгоритм изменен и ТИЦ обновляется только при посещении страницы и не ранее чем раз в 7 дней.
То есть нагрузка на яндекс будет минимальна. В тоже время можно вообще исключить проверку на тиц а просто отображать кнопку тица в каталоге.
Лимит? А если запрашивать тем же методом как Я.Бар?
По идее же если человек с Я.Баром пройдёт больше чем по 5К сайтов в месяц, его АйПи не банят? Соответственно почему должны банить скрипт который проверяет тИЦ с таким же запросом?
А каким методом там запрашивается то ?
Почему банится написано вот тут http://help.yandex.ru/xml/?id=396178 и там же приведены цены за превышение лимита - 10 баксов за 1000 запросов
А по поводу бара.........
Не будет же Яндекс банить самого себя ?
Вот текст лицензии на поиск http://www.yandex.ru/info/termsofuse.html
Я не про поиск, я про запрос тИЦ.
Его как раз и запрашивать тем же методом что и ЯБар.
У меня и 3К и 5К запросов в день нормально проходило.
так какой метод то ?
у меня сейчас скрипт вытаскивает через http://search.yaca.yandex.ru/yca/cy/ch/www.*****.ru/
Я не про поиск, я про запрос тИЦ.
Его как раз и запрашивать тем же методом что и ЯБар.
У меня и 3К и 5К запросов в день нормально проходило.
Да нет, банит скорее всего по другой причине. Видимо у Яндекса есть лимит запросов за единицу времени, скажем 1000 запросов за 10 сек. Пользователь с помощью своего браузера вряд ли столько запросов сможет сделать, а вот скрипт запросто. Скорее всего, так он и определяет все "автоматические" запросы.
Не не время они считают а реальные запросы
Вот ответ яндекса
==========
Этот адрес закрыт с 01/12/2005, потому что с него шел поток автоматических
запросов с игнорированием
robots.txt, что противоречит нашей лицензии на поиск
http://www.yandex.ru/info/termsofuse.html.
83.**.***.12 83.**.***.12 # rtsy 2005/12/01
=============
Только я не понял при чем тут robots.txt,