Что случилось то? Ребята во дворе унижают, дружить не хотят?
Д'Артаньян собирает мушкетёров? :kozak:
Согласно теории относительности на ход времени может повлиять либо большая скорость, либо большая гравитация. Поэтому могу продать турбину от самолёта или на крайняк железобетонную плиту.---------- Добавлено 08.01.2017 в 22:46 ----------
Что такое ДДЛ?---------- Добавлено 08.01.2017 в 22:46 ----------
Джинсы жмут.
Заканчивай бухать, празднование НГ уже пора заканчивать! Я же тебе выше написал. Если ты получаешь ответ от гугла(или другого сайта который ты указал) значит прокси УЖЕ рабочий, он пропускает через себя траф до нужного тебе сайта! Другое дело, что этот IP может быть забанен на самом гугле. Но это не значит, что прокси не рабочий вообще, на других сайтах он может быть не забанен. Так же выше, я тебе указал жирным, что надо оставить в строке конфига, чтобы оставались те прокси которые ещё пригодны для парсинга в гугле(но возможно с капчей).
Я всё прекрасно понял, но кто тебе сказал, что прокси чекаются именно под гугл? Судя по строке они чекаются просто на работоспособность, то есть, что они вообще живые. А проверка ответа гугл, идёт для того, чтобы понят, что IP в чекере действительно, являются IP-прокси, а например не HTTP сервером, которые тоже могут дать тебе ответ 200 и даже html но совсем не тот, что ты ожидал.
Впрочем, если в конфиг вынесена строка с выражением для проверки, то что тебе мешает убрать лишние выражения для проверки и оставить только для того случая когда гугл работает?
Только тут есть один нюанс, что гугл может пускать на морду с прокси и не выдавать капчу, но когда ты пошлёшь запрос то выведет.
И ещё, я вот что-то не понял, в чекере нет, чтоли проверки на анонимность? В хрумаке есть специальный файлик который надо закинуть на свой сервер он выводит содержимое HTTP_SERVER. Ну или можно в качестве сайта для проверки, воспользоваться например https://yandex.ru/internet/
| - это или.
1)Читаешь сатмап, собираешь ссылки
2)Дампишь, ссылки в sqlite
3)Т.к. дампиться будет один раз, id в таблице будет идти сплошняком, без дыр, поэтому не надо будет делать тяжелый запрос random(), достаточно сгенерировать с помощью php функции rand() список id в диападозе от 1 до числа равного кол-ву ссылок в базе и сделать выборку по этим id.
Не придётся держать весь массив ссылок в памяти. Запросы для выбора по id лёгкие, потому сервер не будет грузиться.
Ну, а если ресурсов не жалко, то просто читай сайтмап, с помощью preg_match_all выбираешь все ссылки, с помощью shuffle перемешиваешь массив. И потом циклом for выводишь нужное кол-во ссылок.
Поздно товарищ майор, не успели выполнить план, без премии останетесь!
Всё верно, поэтому я и сказал, что "белое SEO" это понятие мифическое. Выпуская свои алгоритмы поисковики пытаются отсеивать наиболее полезные сайты для людей. В своих рекомендация они не просят: "перенесите контент сюда чтобы наш бот мог это прочитать", "оставьте побольше ссылок на сайт чтобы мы думали, что материал размещённый на сайте полезный" или "сделайте дибильные тайтлы по СЧ"... Те рекомендации которые они дают, относятся не к оптимизации под их алгоритмы, а к оптимизации под пользователя. Например: "Делайте вёрстку, чтобы она могла хорошо отображаться на всех устройствах" или "Ускорьте сайт, чтобы пользователь даже с самым задрыпанным GPRS мог загрузить его", выполняя такие рекомендации ты по сути работаешь на пользователя, т.ч. это не сео, это маркетинг и дизайн,а уже как второстепенный фактор это сказывается на конкурентоспособности сайта с точки зрения поисковиков.
А все действия которые СЕОшники проводят для манипуляции выдачей, относятся к серым схемам. Поисковики знают и понимаю, что ихние алгоритмы пробиваются и их слабыми сторонами пользуются, но закрывают на это глаза, до тек пор пока качество выдачи удовлетворяет их критериям.
Ну вот белый сеошник не знающий азов - любое манипулирование выдачей уже выходит за рамки белого СЕО, потому, что сайт должен создаваться не для поисковиков, а для людей, и это называется не СЕО, а маркетинг и дизайн.