- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Уважаемое руководство, не планируется ли в будущем сделать фильтр по числу страниц в индексе у доноров?
Плагин для лисы в помощь, там можно настроить эту фишку :)
Плагин для лисы в помощь, там можно настроить эту фишку :)
:) Плагин берёт данные сапы, сам запрос не делает. Так что, данные зачастую не актуальны.
:) Плагин берёт данные сапы, сам запрос не делает. Так что, данные зачастую не актуальны.
Это понятно, но лучше чем ничего :)
А так лишний запрос к Яндексу, в масштабах 300 000 сайтов не так просто наверно реализовать постоянную перепроверку...
Это понятно, но лучше чем ничего :)
А так лишний запрос к Яндексу, в масштабах 300 000 сайтов не так просто наверно реализовать постоянную перепроверку...
Ничего подобного. Обращаться нужно по каждому домену 1 раз в сутки. Не самой сапе, а посредством плагина через ИП юзера. Данные по каждому домену кэшируются и отдаются всем спросившим позже из кэша.
Т.о. данные о страницах в индексе по всем доменам будут всегда актуальны.
Ничего подобного. Обращаться нужно по каждому домену 1 раз в сутки. Не самой сапе, а посредством плагина через ИП юзера. Данные по каждому домену кэшируются и отдаются всем спросившим позже из кэша.
Т.о. данные о страницах в индексе по всем доменам будут всегда актуальны.
Дак там в плагине итак какие то данные в сапу передаются. по моему насчет индексированности страниц. Тогда эту фишку надо в плагине вводить а не в сапе, с числом страниц-то. И потом, все равно приходится юзать майл при проверках, а насколько он точен- хз....
Дак там в плагине итак какие то данные в сапу передаются. по моему насчет индексированности страниц. Тогда эту фишку надо в плагине вводить а не в сапе, с числом страниц-то. И потом, все равно приходится юзать майл при проверках, а насколько он точен- хз....
Значимой погрешности майла при проверке индексации страниц не заметил, хотя Малькольм предупреждает о ней, в любом случае сапёрам виднее, как это реализовать. Было бы желание.
Плагин берёт данные сапы, сам запрос не делает. Так что, данные зачастую не актуальны.
ну пару-тройку дней погоды не сделают..
экспорт поломался
100500 раз отказал в размещении с формулировкой: "текст ссылки не подходит". 100501-й раз отправляю в ГБЛ. Текст такой (подобных про сейф с десяток попалось):
Это я запостил сюда в надежде, что составители подобного бреда прочтут и будут внимательнее генерировать тексты, если не хотят остаться только на говносайтах.
Подскажите пожалуйста, как в Sape работает фильтр стоп-слов.
Сколько я не прописывал списков слов в духе: viagra, реферат, диплом и т.д.. Все равно каждый день по 10-15 новых запросов со ссылками, содержащими эти слова.