- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
нет, это не то.
нужно после сбора бэклинков отсортировать по ип, т.е. на а.а.а.а - 10 сайтов, б.б.б.б - 20 сайтов итд. + работа с масками.
вобщем, было бы прикольно это видеть в новой версии :)
При сборе беков можно определять IP адреса, при этом в строке состояния будет показано сколько уникальных IP найдено. А вот насчёт отчёта по IP доноров - расскажите, пожалуйста, подробнее - каким бы Вы хотели его видеть + какой фильтр по маскам нужен. Было бы неплохо в виде примера ;)
А проверка индексации через XML сервис возможна? Или он только для позиций..
Срабатывает защита Яндекса от автоматических запросов с 1 IP
адреса. Следует уменьшать число запросов или использовать
прокси-сервера.
Проверку индексации рекомендуется делать только при использовании прокси-серверов.
Немного информации о защите от капчи:
http://nickspring.ru/archives/34
/ru/forum/109191
Добрый день!:(
Кто знает в чем может быть проблема при определении позиций через Yazzle в Google, результат отличается на одну-две позиции при проверке в ручную?
При сборе беков можно определять IP адреса, при этом в строке состояния будет показано сколько уникальных IP найдено. А вот насчёт отчёта по IP доноров - расскажите, пожалуйста, подробнее - каким бы Вы хотели его видеть + какой фильтр по маскам нужен. Было бы неплохо в виде примера ;)
после сбора бэков с определением ип нажимаем кнопочку и получаем:
1.1.1.1 - 10 сайтов
2.2.2.2 - 5 сайтов
3.3.3.3 - 20 сайтов
итд.
далее применяем фильтр по подсети:
1.1.1.* - 100 сайтов
2.2.2.* - 200 сайтов
итд.
вроде это есть в программе seo spy glass или типа того, точно не могу сказать.
Предложение:
В инструментах -> сайт -> проиндексированные страницы
сделать вывод тайтлов в настоящее момент выдаваемый поисковиком. Также для гугла, неплохо, при определении проиндексированности, выводить дату кеша.
с обновлением разобрался.
вопрос снят.
lipton добавил 22.02.2009 в 13:03
Проверку индексации рекомендуется делать только при использовании прокси-серверов.
кто пользует, напишите, плиз, подробнее: как организовать сие на домашнем компе?
http://nickspring.ru/archives/34
/ru/forum/109191
здесь ничего полезного с практической т.зр. нет.. :(
или я не нашел.. если не трудно, процитируйте..
знаю как обойти защиту бана парсеров поисковиками правда там есть некоторые требования...
как?🍻
Заметил такой баг:
Инструмент -> Домены -> Проверка DNS доменов
Загрузил 30 сайтов для пакетной проверки, прога показала, что все они на одной ip.
Понятное дело захотел узнать, сколько же еще сайтов висит на этом ip. Пошел в инструмент "сайты на ip адресе", ввел адрес и... прога выдала всего 13 сайтов ???
Т.е. сначала сама определила что 30 сайтов находятся на одном айпи, а потом на этом же айпи нашла всего 13. Давайте исправим ))
здесь ничего полезного с практической т.зр. нет.. :(
или я не нашел.. если не трудно, процитируйте..
Суть защиты в том, чтобы использовать приватные прокси-сервера (распределять запросы на несколько внешних IP) - в таком случае вероятность бана каждого конкретного IP уменьшается. Конечно, 2-3 IP мало, речь идёт о пяти и более. Услуги по предоставлению прокси-серверов оказывают достаточно много компаний в интернете, найти их не составит труда. Условия предоставления прокси зависят уже от конкретной компании.
знаю как обойти защиту бана парсеров поисковиками правда там есть некоторые требования...
Как же ? 🚬
Заметил такой баг:
Инструмент -> Домены -> Проверка DNS доменов
Загрузил 30 сайтов для пакетной проверки, прога показала, что все они на одной ip.
Понятное дело захотел узнать, сколько же еще сайтов висит на этом ip. Пошел в инструмент "сайты на ip адресе", ввел адрес и... прога выдала всего 13 сайтов ???
Т.е. сначала сама определила что 30 сайтов находятся на одном айпи, а потом на этом же айпи нашла всего 13. Давайте исправим ))
В инструменте "Сайты на IP адресе" берутся данные по msn, возможно, что отдавались не все сайты. Будет проще разобраться с примером на почту в саппорт.