- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Что будет стоить?
Что будет стоить?
Пока не знаю, но всем, кто приобретал десктопные версии, будет существенная скидка :) Это могу пообещать точно :)
Предлагаю при нажатии кнопки "Отмена" все таки не сбрасывать проект, а сохранять собранные ссылки и делать пригодным для расчета веса.
абсолютно согласен, нужно реализовать обязательно такую возможность.
И еще при анализе не показывает название анализируемого сайта, вот и гадаешь на 10000 страниц какой ты сайт поставил.
Программа не обращает внимания на метатеги
<meta name="robots" content="noindex, follow">
Пока не знаю, но всем, кто приобретал десктопные версии, будет существенная скидка :) Это могу пообещать точно :)
Ну я в очередь если что...
И еще вопросик, когда выпуск то? Если что про меня не забудьте... ;)
Программа не обращает внимания на метатеги
<meta name="robots" content="noindex, follow">
Программа учитывает только файл robots.txt Т.е. тот, что лежит отдельно в корне сайта.
Функцию проверки каждой страницы на наличие мета-тега name="robots" решили пока не вводить, так как это скажется на скорости сканирования. ... ну и наличие robots в виде мета-тега, а не файла, скорее исключение, нежели правило.
Приношу свои извинения, если это доставляет серьезные неудобства.
Sterh добавил 18.09.2008 в 14:02
Ну я в очередь если что...
И еще вопросик, когда выпуск то? Если что про меня не забудьте... ;)
Не забудем! :)
Когда будет? - Чуть-чуть раскрую планы :)
Сейчас готовится головной сайт top4seo.ru (там сейчас ничего нет, так что можно не ходить).
Основная, точнее первая, фишка этого сайта - это выдача всех трех поисковиков на одной странице. Т.е вы вводите запрос в форму, и вам выдается в три колонки выдача Я, G, R
Эта фишка будет абсолютно бесплатна для всех.
А вот уже на этот сайт будут прикручиваться различные полезные сервисы. Первый из которых - серверная версия программы. Но серверная версия будет намного более сложной и более функциональной. Планируются функции от генерации карты сайта до автоматической перелинковки.
К тестированию серверной версии программы будут обязательно приглашены все, кто приобретал десктопный вариант :) Ну и как говорил уже, будут существенные скидки, вплоть до полной компенсации стоимости десктопной версии :)
Не забудем! :)
Спасибо мил человек...
Когда будет? - Чуть-чуть раскрую планы :)
Сейчас готовится головной сайт top4seo.ru (там сейчас ничего нет, так что можно не ходить).
а ведь зашел же... едрить твою коцинь... :)
Основная, точнее первая, фишка этого сайта - это выдача всех трех поисковиков на одной странице. Т.е вы вводите запрос в форму, и вам выдается в три колонки выдача Я, G, R
Эта фишка будет абсолютно бесплатна для всех.
А вот уже на этот сайт будут прикручиваться различные полезные сервисы. Первый из которых - серверная версия программы. Но серверная версия будет намного более сложной и более функциональной. Планируются функции от генерации карты сайта до автоматической перелинковки.
К тестированию серверной версии программы будут обязательно приглашены все, кто приобретал десктопный вариант :) Ну и как говорил уже, будут существенные скидки, вплоть до полной компенсации стоимости десктопной версии :)
Отличная новость! :)
Хорошо бы в той версии что я купил при принудительной отмене парсинга сделать сохранение того что напарсилось... я до сих пор не могу отпарсить ничего более 15000 страниц )))
Хорошо бы в той версии что я купил при принудительной отмене парсинга сделать сохранение того что напарсилось... я до сих пор не могу отпарсить ничего более 15000 страниц )))
Тогда более логично поставить выбор глубины парсинга. В результате должен ещё создаваться лог файл с просканеными урлами, чтоб прога в следующий заход проходила только новые. Иначе говоря сканы разбить на этапы, кратно например 10000 страниц.
Тогда более логично поставить выбор глубины парсинга. В результате должен ещё создаваться лог файл с просканеными урлами, чтоб прога в следующий заход проходила только новые. Иначе говоря сканы разбить на этапы, кратно например 10000 страниц.
Дельная мысль! Подумаем.
ЗЫ: Завтра разошлю обновление.