Ещё уточните, вы сидели работали и он перезагрузился
Перезагрузка была моментальная
интересное кино )))
как Вы могли сравнить три сайта и более одним запросом?
ведь понятно что я имел ввиду сам запрос | , и проверять надо в несколько итераций, для минимизации неточностей.
Вкратце:
Однословники с осторожностью.
Не умеешь готовить анкор-лист - лови "Криворукого".
Ну... это не будет пессимизацией в выдаче?
ps понятное дело что у них есть выборка сайтов, основываясь на которых они получили данные о соотношении "Типов" ссылок. На это соотношение и опираются при анализе всего интернета. Но вот мне например не понятно, а по каким критериям отбирали сайты эталоны, ведь на них тоже могли быть "неестественные" ссылки.
Потому что отведённое время закончилось. Что тут непонятно? Время ограничивают, чтобы скрипты не молотили до скончания века.
Вы не дочитали. Я там писал - почему после прерываться в базе только 6тыс строк ))
За 300сек можно было и больше в базу закидать.
Как знать. Может - решение сделать все более-менее правильно. 2 минуты контрол-с/контрол-в, + несколько строк:
Результат:
Нетрудно заметить, то чтение 8гиг файла в 5000000 строк
Гениально! Но у меня ошибка 500. Руки корявые по ходу
Резюмирую. ТО что мне нужно сделать получилось, на хост в базу закинул 6 файлов (разбил основной) и запросом оставил уникальные строки.
С Denwer не срослось. Вываливается...