Marat_Kh

Рейтинг
126
Регистрация
18.08.2005

Они её хидерами отпраляют.

КОРОЧЕ ВСЕ САЙТЫ не качественные

Эт, точно подмечено. Начнем за упокой, а получится как всегда. Тост. У флагмана Рунета, битые ссылки кругом, искал недавно, что то. Вариантов много пробовал... Говорили дальше будет, точнее писали (1 2 3 4), типа жми сюда. Но нет, на 2 нажал, не было ответа. Пусто, после 2-х, у флагмана. Наивные, думают запрет в робот_тхт, позволяет считать их сайт качественным, при наличии некачественных ответов.

Так давайте сделаем так. Возьмем бутылочку шампанского вина. Откроем её. Нальем. И выпьем за то, чтобы в Новом году:

1)Было бы, как минимум не хуже, чем в текущем;

2)все наши близкие были бы, так же счастливы;

3)все наши сайты были бы ещё более качественными.

Поздравляю с Днем рождения. Всех благ.

Горе. Соболезную родным. Сил им.

Сейчас работает, но не крутится видимо объявлений по моей теме мало. Первый вариант кода, который взял не имел такой переменной:

begun_scroll_height, поставил стало показыватьсЯ.

Ошибки пока в J скрипте есть, в режиме он-лайн отлаживают видимо.

Ошибка: $("begunRoot") has no properties

Источник: http://autoscroll.begun.ru/begunScroll.js

Строка: 35

Polite Moose:
Вы считаете релевантным тот сайт, который выведен в топ мордами и ссылками, а не тот, который там оказался без внешнего влияния. Другими словами, Вы считаете, что ПС не может отбирать релевантные запросу сайты без настойчивой помощи "оптимизаторов"?

Нет, достаточно часто для меня релевантней сайт, на который никто не влияет, но тут не об этом, у ПС свои взгляды на релевантность. В выдаче вероятней всего события будут развиваться ближе к этому сценарию:

Polite Moose:
созданый месяц назад сайт без содержимого, без истории, без дизайна и т.д., с единственной фразой на единственной странице: "покупайте наши кондиционеры, телефон: ...", но зато прокаченный "мордами"

будет выше старого и авторитетного сайта, построенного на древнем моторе с титлами одинаковыми по всем страницам, но имеющего нужное содержание. И рандом тут никак не поможет изменить ситуацию. Мое мнение, что рандом по любому качество выдачи только снизит. А если смотреть с точки зрения коммерческой выгоды, мне кажется тут тоже не все гладко. Например, как быть если у пользователей сложится мнение что в Яндексе релевантность определяется случайным образом?

il4:
и вы перестаете быть релевантный, в топ полезут старые и авторитетные сайты, и будут там крутиться

Предсказать трудно, как будет. Навскидку: во многих тематиках двигаются сетками, часто бывает так, что сайты сделаны и наполнены достаточно грамотно и бывает так, что по ссылочным параметрам, если убрать влияние "жирных" ссылок, не слабее тех же лидеров, а уж тем более многих старых авторитетных сайтов. Про оптимизированный контент я и не упоминаю. То бишь полноправные кандидаты на включение в ротацию.

А вот чтобы не спорить, вот вам ссылка: http://company.yandex.ru/articles/article10.html
И.Сегалович: "... Для решения ... задачи Udi Manber ... предложил идею ... , а Andrei Broder ... придумал название и довел до ума алгоритм «шинглов» ... " (с)
Ответить с цитированием

Чуть ниже там же

Чтобы у читателя не создалось впечатление, что информационный поиск исключительно западная наука, упомяну про альтернативный алгоритм определения почти-дубликатов, придуманый и воплощенный у нас в Яндексе [ilyinsky]. В нем используется тот факт, что большинство поисковых систем уже обладают индексом в виде инвертировнного файла (или инвертировнным индексом) и этот факт удобно использовать в процедуре нахождения почти-дубликатов.
есть у вас сайт - висит твердо в 3-ке, платите 1,5килобакса за сео, тут вам рэндом крутить его начинает то 30-е место то 3-е, короче трафика в 30раз меньше стало, тут вопрос, делать еще 10 сайтов и вкладвыать в каждый по 1,5 килобакса на сео, или платить 5к за директ?

... перестаете платить за SEO, ссылки не ставятся, морды не покупаются и нет 100 мегарелевантных сайтов, а алгоритм - рандом.

Поэкспериментируйте с увеличением объема документа.

Больше 512 байт.

Пробовал такой полгода назад, но не стал использовать. Возможно это уже устранено в Вашей версии, если нет, то информация для разработчика:

Скрипт организован неоптимально. Вот кусок из файла tmp.php, который инклудится в index.php



$file = file("base.dat");
$fp=fopen("tmp.dat","w");
flock($fp, LOCK_EX);
for($i=0; $i<count($file); $i++){
fwrite($fp, $file[$i]);
}
flock($fp, LOCK_UN);
fclose($fp);
$file = file("tmp.dat");
$fp = fopen("tmp.dat", "w");
flock($fp, LOCK_EX);
for($i=0;$i<count($file);$i++) {
list($id,$nick,$url,$mail,$category,$htmltext,$htmlimage,$urlink,$check_result,$check_next,$ip,$check_date) = explode("|", $file[$i]);
$tmp[$i] = array (field => $id, ext => "$nick|$url|$mail|$category|$htmltext|$htmlimage|$urlink|$check_result|$check_next|$ip|$check_date");
}
usort($tmp, fieldAsc);
foreach($tmp as $val) fputs ($fp, "$val[field]|$val[ext]");
flock($fp, LOCK_UN);
fclose($fp);


Файл где хранятся ссылки base.dat читается в массив ($file), из него создается массив $tmp, который пишется tmp.dat, потом в индексе.пхп опять читается ($base = file("tmp.dat");). Размер base.dat при 1000 ссылок под мегабайт скорее всего, одновременно получается 3 массива такого размера, что бы вывести 10 ссылок на странице. Два раза в индекс.пхп читаются категории: $cid = file("categories.dat"). Можно попробовать удалить вот этот кусок:

$fp=fopen("tmp.dat","w");

flock($fp, LOCK_EX);
for($i=0; $i<count($file); $i++){
fwrite($fp, $file[$i]);
}
flock($fp, LOCK_UN);
fclose($fp);
$file = file("tmp.dat");

и в конце tmp.php дописать $file=$tmp=null; вроде они по новой формируются в индексе.пхп. А по хорошему переписать все с построчным чтением файлов разработчику надо.

Всего: 298