- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
На счет кинуть 90 копеек, например)
"Ты ж жалеешь мне рубля, ах ты ***". :D
Сорри, что встрял, вспомнилось: http://www.bards.ru/archives/part.php?id=15271 .
В метро "нищим" иногда по 50р подают.
стёрто срочно...
"При анализе каждого сайта система производит автоматически более 1000 запросов к различным другим сайтам и около 200 к яндексу."
Может нолик запал?:)
Вы можете посмотреть отчёты и посчитать. Отчёты здесь Примеры
Примерно это вот откуда - яндекс в xml выдаёт в одном запросе только 20 сайтов. Значит чтобы взять 100 сайтов это уже 5 запросов. Ссылок 20 на каждую по 5 запросов к яндексу - это уже
100 запросов. А потом происходит у некоторых ссылок дальнейший анализ с использованием яндекса. А по сайтам - сначала робот берёт с вашего донора страницы - 100-200 страниц, а
потом мы же проверяем уникальность доноров, то есть чтобы на акцептор ссылался только проверяемый донор с уникальным анкором. Мы заходим на каждый сайт из выдачи яндекса, если в выдаче 100 сайтов, то мы заходим на все 100 сайтов, и так для 20 ссылок.
"Ты ж жалеешь мне рубля, ах ты ***".
да не жалко.. просто лишние телодвижения с вебмани совершенно никчему...
проверил - понравилось - пополнил счет..
В метро "нищим" иногда по 50р подают.
подают исключительно для того что бы показать себе "какой хороший я"
мы вроде про бизнес говорим)
да не жалко.. просто лишние телодвижения с вебмани совершенно никчему...
проверил - понравилось - пополнил счет..
подают исключительно для того что бы показать себе "какой хороший я"
мы вроде про бизнес говорим)
Вы зарегистрируйте аккунт на teh.ru и напишите нам в личную почту название. Мы вам положим.
TEH.RU, да я зарегился перед тем как писать)) но не претендую на бета-тестирование... это было к слову сказано, как обычного пользователя...
Парсить такие объемы через xml? Смело. Хотя смотря какая подстраховка ;)
Парсить такие объемы через xml? Смело. Хотя смотря какая подстраховка ;)
XML, согласно лицензии яндекса, как раз и создан для автоматических запросов.
XML, согласно лицензии яндекса, как раз и создан для автоматических запросов.
1. XML очень часто не стабилен и возвращает не верные результаты.
2. Не думаю, что Яндексу нравится, что автоматические запросы происходят с целью влияния на поиск.
3. В паблик писать не буду, но тоже изъян один есть важный.
НО! Через xml работать можно. И если в сервисе смогли организовать безопасный, стабильный и точный парсинг больших объемов - респект.
Пожалуйста прикрутите возможность сортировки проверенных сайтов. Ну или как минимум поменяйте их вывод по дате, то есть так, чтобы первыми в таблице выводились последние проверенные.
Очень неудобно ждать загрузки всего листа из нескольких тысяч ссылок, чтобы найти те которые проверил сегодня.