- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
https://seolib.ru/tools/links/metrics/
Сеолиб пробовали?
А что делали чтобы заработало? Тоже подвисает...
клиент программы iChecker для проверки индексации страниц переключил режим доступа к поисковой системе Яндекс с Прямого на доступ через Яндекс.XML
клиент программы iChecker для проверки индексации страниц переключил режим доступа к поисковой системе Яндекс с Прямого на доступ через Яндекс.XML
Подтверждаю.
Работает на "УРА". Давно искал.
Держите темп.
raman-kursk, возможно у вас есть программа, которая выгружает ВСЕ страницы в индексе по Яндексу и Гуглу?
raman-kursk, возможно у вас есть программа, которая выгружает ВСЕ страницы в индексе по Яндексу и Гуглу?
У нас в Rush Analytics (www.rush-analytics.ru) есть такой инструмент, работает в закрытом режиме, выдаем по запросу.
Полноценный веб-сервис - можно загрузить URL как списком, так и файлом Excel или просто дать ссылку на Sitemap.xml
Предлагаем попробовать - напишите мне на email oleg@rush-agency.ru
У нас в Rush Analytics (www.rush-analytics.ru) есть такой инструмент, работает в закрытом режиме, выдаем по запросу.
Полноценный веб-сервис - можно загрузить URL как списком, так и файлом Excel или просто дать ссылку на Sitemap.xml
Предлагаем попробовать - напишите мне на email oleg@rush-agency.ru
Спасибо, но вы не поняли.
Понять по списку, что в индексе, а что нет уже есть возможность. И я это сделал.
А теперь как вытащить ВСЕ страницы в индексе Яндекса например?
Соотнести с помощью формул в excel со своим списком и понять, что еще там в индексе осталось.
И работать с этим.
Возможно там дубли какие вылезли.
Спасибо, но вы не поняли.
Понять по списку, что в индексе, а что нет уже есть возможность. И я это сделал.
А теперь как вытащить ВСЕ страницы в индексе Яндекса например?
Соотнести с помощью формул в excel со своим списком и понять, что еще там в индексе осталось.
И работать с этим.
Возможно там дубли какие вылезли.
А вот это уже довольно муторная задача.
Проще решить так:
1. Достаете из БД все страницы сайта, которые отдают код ответа 200
2. Далее, с помощью правил robots.txt, регулярными выражениями в Notepad++ делите выгрузку на 2 списка:
а) То, что ДОЛЖНО быть в индексе
б) Все остальное
Пробиваем постранично по списку а) индексацию в Яндексе и в Google - понимаем, что из нужных страниц в индексе
Пробиваем список б) аналогичным способом - получаем мусор в индексе
Единственный момент - программисты могут вас проклянуть :)
Спасибо за мнение.
По мне так проще вытащить из Яндекса все странницы, которые он проиндексировал.
Чем делать это, исходя из своего списка страниц, проверяя, к тому же, страницы, которые не проиндексированны повторно.
Увеличивая тем самым количество шагов и временные затраты.
Как-то так с утра мысль идет.. :)