Тоесть Яшка совсем не релевантный, ну это право каждого оценивать так, как ему хочется.
Зачем себе противоречить?
опять противоречите сами себе по пункту 2, и тематика далеко не узкая и не специфичная.
Всем спокойной ночи, пора уже всетаки и отдохнуть :)
Тут я не согласен, хоть убейте, яшка оценивает не весь сайт а отдельные страницы (по релевантности), а все говно можно запросто выкинуть из поиска.
Тоже заблуждение, на мой счет, видел кучу сайтов которые давненько никак не обновляются, но Я считает их по сей день релевантными. Сейчас точно не скажу какие.
От куда такие данные?
Гении подтянулись???
Под пятничным пивом пришла такая мутная идея в голову, суть:
Яшка создает сервис по мгновенному добавлению страницы в индекс (правда тут есть моменты которые обдумывать я не буду, в смысле новости на каждой странице, или еще какой контент который повторяется на всех страницах и не только на данном сайте, это опять про новости);
Вебмастер создает новую страницу с уникальным контентом, при этом она не отображается ни в меню, и зайти на неё с сайта невозможно (щоб не стырыли), но она существует (как это сделать думаю понятно);
вебмастер добавляет эту страницу в этот сервис;
в этот же момент (при добавлении) записывается дата и время её появления (добавления) в Яшке;
она попадает в индекс если проходит критерий уникальности (не обязательно чтоб сразу была в выдаче (быстроробот), главное чтоб дата была записана и текст страницы остался в кэше, но появлялась при следующем АПе);
затем Яшка храня запись о этой странице, сравнивает все добавляемые, через этот же сервис и добавляемые обычным роботом, страницы с этой, и остальными добавленными таким же способом (с помощью сервиса) вычисляет дубликаты по датам индексации, и тут уж делает с дублями что хочет.
После АПа вебмастер спокойно добавляет свою страничку в меню и т.*д.
Я конечно понимаю что это может быть пивной бред, но это мои мысли, пока что другого в голову не приходило, по поводу авторства :D Да и не задумывался раньше :)
Это все мое личное...
Сталкивался с воровством не раз, и всегда тупо переписывлся контент, правда было пару раз так, что писал админу сайта и он добросовестно ставил ссылку на источник, правда приходилось пригрозить баном от хостера :) Но ведь подействовало...
Ой как не факт...
Или предется ему как гуглу не Апы делать, а постоянно на всех сайтах сразу шариться и сравнивать все даты, и то тут кому повезет, тот и автор.
А на всех сайтах быть разом, кажется мне невозможным...
А если точнее, то не как Гуглу, а даже круче (по скорости индексации в смысле)))))
Ну а Вы как хотели, ведь Я только зеркало, пусть иногда и кривое, рунета :D
Они действуют по своей лицензии, тоесть "что хочу, то варочу", а мы под него подстраиваемся.
З.Ы. Очень интересно, как они реализуют этот алгоритм по поиску источников текста и дубликатов.
seonik, +1 Надоело одни и те же сообщения читать про "магию" тИЦ )))
Люди так же приходят на сайт, так же есть заказы (ну может из-за кризиса и меньше стало, хотя врятли) значит все отлично!
ТС, не парьтесь вы с этой "позомеркой"
Ну у меня по годам не получается столько сайтов, физически бы не успел к 22-м столько наделать)))
Проверил рандомно :) 5-ть сайтов, все как были в каталоге, так и остались.
Str256, так наверно будет не лучше, а правильней. Хотя Яндексу от этого плюсов мало :) .
wilelf, ramdom - с английского есть случайный, беспорядочный. И в случае с компьютерами есть такое понятие, как сказал Str256 к примеру, случайная сортировка тому пример.
noorma добавил 18.12.2008 в 18:54
Исправили уже вроде...