- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Оки. Спасибо. Моя ошибка
Sterh, пишет "не удалось найти заданный узел".
Хотя сайт работает и со связью все нормально.
Не подскажете в чем проблема?
Sterh, пишет "не удалось найти заданный узел".
Хотя сайт работает и со связью все нормально.
Не подскажете в чем проблема?
У меня Ваш сайт находит и парсит. Отписался в личку.
------------------
Решили траблу с движками ДЛЕ и Даннео. Дописываю новый Хелп и, надеюсь, к концу недели, разошлю обновления.
программа показывает общее количество внешних ссылок с сайта?
Я бы только за эту возможность выложил 50 баксиков если б можно было загружать туда много адресов сайтов на проверку.
программа показывает общее количество внешних ссылок с сайта?
Я бы только за эту возможность выложил 50 баксиков если б можно было загружать туда много адресов сайтов на проверку.
Показывает. НО! Программа не тянет большие сайты - оптимально до 1000 страниц (хотя удавалось выкачивать и до 16К, но дооолго....) Программа работает только с одним сайтом.
Вобщем использовать программу для просмотра внешних ссылок с ресурса не целесообразно.
Будет ли ограничение на количество уровней и когда?
Будет ли ограничение на количество уровней и когда?
Нет, не будет. А если и будет, то не скоро. Сейчас работаем над серверной версией, но это будет уже совсем другая история :)
А можно ли сделать, чтобы при нажатии "Отмена" (получение данных) оставались данные, что успелись получить?
Серверная версия - очередной сервис с оплатой за каждую вытащенную страницу?
Серверная версия - очередной сервис с оплатой за каждую вытащенную страницу?
Не думаю, скорее скрипт, который можно будет повесить на отдельный сервер, для увеличения скорости сканирования.
ТС, свой сайт с описанием программы когда запустите?
Далее.... Давно я к вам не заглядывал в ветку. Есть ли у вас такой функционал, если нет - реализуем ли он?
Проверка весов, только проиндексированных страниц сайтов с выдачей их списка. Проверка пакетная: т.е. загружаю например 100 урл сайтов - прога проверяет какие страницы сайта проиндексированы в Яндексе, затем расчитывает их веса, затем отсекает по заданному мной критерию страницы с низким весом, те что остались выдаёт в отдельном файле. И так по очереди. С возможностью дальнейшего объединения в один список. Хотелось бы чтобы в этом списке страницы строились не по весу(раз они тут, то значит вес уже нормальный), а по числу внешних со страницы.
А можно ли сделать, чтобы при нажатии "Отмена" (получение данных) оставались данные, что успелись получить?
Серверная версия - очередной сервис с оплатой за каждую вытащенную страницу?
Да, он будет платный, но там будет несколько иной функционал, близкий к тому, что описал Str256
Не думаю, скорее скрипт, который можно будет повесить на отдельный сервер, для увеличения скорости сканирования.
ТС, свой сайт с описанием программы когда запустите?
Скоро! :)
Далее.... Давно я к вам не заглядывал в ветку. Есть ли у вас такой функционал, если нет - реализуем ли он?
Проверка весов, только проиндексированных страниц сайтов с выдачей их списка. Проверка пакетная: т.е. загружаю например 100 урл сайтов - прога проверяет какие страницы сайта проиндексированы в Яндексе, затем расчитывает их веса, затем отсекает по заданному мной критерию страницы с низким весом, те что остались выдаёт в отдельном файле. И так по очереди. С возможностью дальнейшего объединения в один список. Хотелось бы чтобы в этом списке страницы строились не по весу(раз они тут, то значит вес уже нормальный), а по числу внешних со страницы.
Я прекрасно понимаю к чему Вы клоните :)
Нечто похожее сейчас пытаемся реализовать. НО! Банально отсканировать хотябы 100 ГС с объемом 100-150 страниц на локальном компе хлопотно. Одного трафика только сожрет сколько, а для тех, кто на медленных каналах сидит - вообще беда. Поэтому доработку десктопной версии программы сочли нецелесообразной (впрочем это не значит, что мы к ней совсем не вернемся), и сосредоточились на серверной версии.
Если удастся все, что задумали, то... впрочем не будем загадывать ;)
Первый, оооочень маленький камушек, из всего это здания представлю в ближайшее время. Это будет бесплатный сервис для вывода всех ссылок с сайта, как внешних, так и внутренних.