Они её хидерами отпраляют.
Эт, точно подмечено. Начнем за упокой, а получится как всегда. Тост. У флагмана Рунета, битые ссылки кругом, искал недавно, что то. Вариантов много пробовал... Говорили дальше будет, точнее писали (1 2 3 4), типа жми сюда. Но нет, на 2 нажал, не было ответа. Пусто, после 2-х, у флагмана. Наивные, думают запрет в робот_тхт, позволяет считать их сайт качественным, при наличии некачественных ответов.
Так давайте сделаем так. Возьмем бутылочку шампанского вина. Откроем её. Нальем. И выпьем за то, чтобы в Новом году:
1)Было бы, как минимум не хуже, чем в текущем;
2)все наши близкие были бы, так же счастливы;
3)все наши сайты были бы ещё более качественными.
Поздравляю с Днем рождения. Всех благ.
Горе. Соболезную родным. Сил им.
Сейчас работает, но не крутится видимо объявлений по моей теме мало. Первый вариант кода, который взял не имел такой переменной:
begun_scroll_height, поставил стало показыватьсЯ.
Ошибки пока в J скрипте есть, в режиме он-лайн отлаживают видимо.
Ошибка: $("begunRoot") has no properties
Источник: http://autoscroll.begun.ru/begunScroll.js
Строка: 35
Нет, достаточно часто для меня релевантней сайт, на который никто не влияет, но тут не об этом, у ПС свои взгляды на релевантность. В выдаче вероятней всего события будут развиваться ближе к этому сценарию:
будет выше старого и авторитетного сайта, построенного на древнем моторе с титлами одинаковыми по всем страницам, но имеющего нужное содержание. И рандом тут никак не поможет изменить ситуацию. Мое мнение, что рандом по любому качество выдачи только снизит. А если смотреть с точки зрения коммерческой выгоды, мне кажется тут тоже не все гладко. Например, как быть если у пользователей сложится мнение что в Яндексе релевантность определяется случайным образом?
Предсказать трудно, как будет. Навскидку: во многих тематиках двигаются сетками, часто бывает так, что сайты сделаны и наполнены достаточно грамотно и бывает так, что по ссылочным параметрам, если убрать влияние "жирных" ссылок, не слабее тех же лидеров, а уж тем более многих старых авторитетных сайтов. Про оптимизированный контент я и не упоминаю. То бишь полноправные кандидаты на включение в ротацию.
Чуть ниже там же
... перестаете платить за SEO, ссылки не ставятся, морды не покупаются и нет 100 мегарелевантных сайтов, а алгоритм - рандом.
Больше 512 байт.
Пробовал такой полгода назад, но не стал использовать. Возможно это уже устранено в Вашей версии, если нет, то информация для разработчика:
Скрипт организован неоптимально. Вот кусок из файла tmp.php, который инклудится в index.php
$file = file("base.dat"); $fp=fopen("tmp.dat","w"); flock($fp, LOCK_EX); for($i=0; $i<count($file); $i++){ fwrite($fp, $file[$i]); } flock($fp, LOCK_UN); fclose($fp); $file = file("tmp.dat"); $fp = fopen("tmp.dat", "w"); flock($fp, LOCK_EX); for($i=0;$i<count($file);$i++) { list($id,$nick,$url,$mail,$category,$htmltext,$htmlimage,$urlink,$check_result,$check_next,$ip,$check_date) = explode("|", $file[$i]); $tmp[$i] = array (field => $id, ext => "$nick|$url|$mail|$category|$htmltext|$htmlimage|$urlink|$check_result|$check_next|$ip|$check_date"); } usort($tmp, fieldAsc); foreach($tmp as $val) fputs ($fp, "$val[field]|$val[ext]"); flock($fp, LOCK_UN); fclose($fp);
Файл где хранятся ссылки base.dat читается в массив ($file), из него создается массив $tmp, который пишется tmp.dat, потом в индексе.пхп опять читается ($base = file("tmp.dat");). Размер base.dat при 1000 ссылок под мегабайт скорее всего, одновременно получается 3 массива такого размера, что бы вывести 10 ссылок на странице. Два раза в индекс.пхп читаются категории: $cid = file("categories.dat"). Можно попробовать удалить вот этот кусок:
$fp=fopen("tmp.dat","w"); flock($fp, LOCK_EX); for($i=0; $i<count($file); $i++){ fwrite($fp, $file[$i]); } flock($fp, LOCK_UN); fclose($fp); $file = file("tmp.dat");
и в конце tmp.php дописать $file=$tmp=null; вроде они по новой формируются в индексе.пхп. А по хорошему переписать все с построчным чтением файлов разработчику надо.