- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Ceres, Anton, коллективными стараниями вполне реально. А вот в одиночку уже считали. 10 Мбит/с брали, кажется. Больше года получалось на обход рунета.
В каком виде пользователям удобней получать линки?
коллективными стараниями вполне реально
Ну там можно и расстараться по такому случаю. У многих же сеошников есть свои сервера.
Ceres, Anton, коллективными стараниями вполне реально. А вот в одиночку уже считали. 10 Мбит/с брали, кажется. Больше года получалось на обход рунета.
Ну так это все "проблемы" разработчиков, в том числе и по провлечению колективного разума и ресурсов. Все реально - проходили уже - надо только жопу поднять с дивана.
Все - за сим откланивают - если тузлу никто не сделает - значит зажралися все - ну и по делом тогда :)
Ceres, Anton, коллективными стараниями вполне реально. А вот в одиночку уже считали. 10 Мбит/с брали, кажется. Больше года получалось на обход рунета.
во первых можно обходить только проиндексированный рунет. Во вторых нужно стягивать только сам хтмл код где стоят ссылки, в третьих трафф нужно будет распределить на несколько машин думаю что многие тут имеют анлим и смогут его предоставить. с миру по нитке-голому рубаха. опять таки хранить полностью страницу не надо а только адрес донора и риципиента+ анкор и в четвертых другие ПС никто не отменял.
во первых можно обходить только проиндексированный рунет.
Так и считали.
Во вторых нужно стягивать только сам хтмл код
Так и считали.
, в третьих трафф нужно будет распределить на несколько машин думаю что многие тут имеют анлим и смогут его предоставить. с миру по нитке-голому рубаха.
На это и расчет.
опять таки хранить полностью страницу не надо а только адрес донора и риципиента+ анкор
Кстати, с хранением и выборкой из базы тоже проблема наклевывается, понадобится порядка 1 000 Гб только под связки с учетом анкоров. А вот с какой скоростью такая база будет работать, я не знаю :)
и в четвертых другие ПС никто не отменял.
Другие ПС уже обсудили.
- выдавать инфу по анкору как это сейчас в яше реализовано.
Какую именно инфу ?
Кстати, с хранением и выборкой из базы тоже проблема наклевывается, понадобится порядка 10 000 Гб только под связки с учетом анкоров. А вот с какой скоростью такая база будет работать, я не знаю :)
Распределенная база с кластерной архитектурой, из готовых и бесплатных например MySQL NDB кластер, только не помню, сколько нод максимально поддерживается, хоть както, но работать будет. И если, гипотетически, будет тысяча компов с 10 гб памяти, что, в принципе не так уж и дорого, то работать будет достаточно быстро.
как миниум то что общедоступно было - ссылки по анкору. Но вообще-то имея анкор листы каждый сам волен с ним делать се что захочет ;)
принципу сканирования ботами, дам свой анлим канал на 512 к на ночное время (с 9 вечера до 8 утра) для работы ботов.
война роботов начинается 😂….дубликат базы по анкор листам - это наверное не то, чего хотели добиться в Яше, интересно, на что рассчитывали - просто усложнить жизнь, прекратить постоянные обращения к выдаче всяких оптимизаторкских програмулек....? но ведь обращений будет мягко говоря в разы больше...