- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Некоторое время назад на digitalpoint
abuzant сообщил о редкой ошибке гугла, которую он обнаружил просматривая кешированную версию страницы.
Гугл выдал ему ошибку в виде кода. Мне лично из этого кода непонятно ничего. Кому-то, возможно, что-то реально объяснит в алгоритме гугла. Надеюсь, он не забудет мне потом об этом рассказать.
pacemaker-alarm-delay-in-ms-overall-sum 2341989
pacemaker-alarm-delay-in-ms-total-count 7776761
cpu-utilization 1.28
cpu-speed 2800000000
timedout-queries_total 14227
num-docinfo_total 10680907
avg-latency-ms_total 3545152552
num-docinfo_total 10680907
num-docinfo-disk_total 2200918
queries_total 1229799558
e_supplemental=150000
–pagerank_cutoff_decrease_per_round=100
–pagerank_cutoff_increase_per_round=500
–parents=12,13,14,15,16,17,18,19,20,21,22,23
–pass_country_to_leaves
–phil_max_doc_activation=0.5
–port_base=32311 –production
–rewrite_noncompositional_compounds
–rpc_resolve_unreachable_servers
–scale_prvec4_to_prvec
–sections_to_retrieve=body+url+compactanchors
–servlets=ascorer
-supplemental_tier_section=body+url+compactanchors –threaded_logging
–nouse_compressed_urls
–use_domain_match
–nouse_experimental_indyrank
–use_experimental_spamscore
–use_gwd –use_query_classifier
–use_spamscore
–using_borg
взято с http://www.blogther.com/2006/07/20/google-error/
мои размышления :
–nouse_experimental_indyrank
чертовски интересная штука..
какие у кого есть предположения с чем это может быть связано? У меня на ум сразу пришло indycar - гонки ... следующая мысль - скорость поднятия сайта в серпе. - взять на заметку ( и возможно принудительно понизить выдачу )
еще одна версия - индиана джонс - поиск сокровищ - обогащение - продажа ссылок с сайта ? индиранк показывает насколько сайт обогащается за счет ссылок ( тем самым отнимая деньги у гугля adwords ) - соответственно понижает сайт в выдаче.
в любом случае создалось впечатление негативное .. хорошо что пока experimental :)
еще одна ссылочка по теме http://www.modernlifeisrubbish.co.uk/google-indyrank-theories.asp
hypno, статья конечно любопытная. И про Indepedent Rank он вполне возможно прав, но вот то что это может быть человеческий фактор скорее всего полный бред. Человеческий фактор, описанный в статье, совсем несложно подделывается, и это, наоборот, даст спамерам возможность сильнее влиять на выдачу, чем они это делают сейчас, так как софт для подделки подобных "human votes" намного проще софтверных комплексов, которые используют профессиональные спамеры.
А вообще, действительно интересно что это. Но я бы дал минимум процентов 50 на то, что это сознательно пущенная гуглом утка, преследующая какие-то цели.
Да и вообще, как в такой серьезной отлаженной системе подобный дамп может попасть на глаза юзеру? Ладно бы если это ПЕРИОДИЧЕСКИ случалось. Но если это единичный случай - то совсем уж подозрительно. Я не программист, но насколько я понимаю, вероятность этого ничтожно мала.
Да и вообще, как в такой серьезной отлаженной системе подобный дамп может попасть на глаза юзеру? Ладно бы если это ПЕРИОДИЧЕСКИ случалось. Но если это единичный случай - то совсем уж подозрительно. Я не программист, но насколько я понимаю, вероятность этого ничтожно мала.
согласен, вполне возможно даже что это не утка гугля , а один парень с Украины ( именно он заявил об этом глюке ) решил поднять свой PR таким образом ( в гугле уже более тысячи раз упоминается этот глюк ) кроме того даже зареген домен indyrank.com :)
кстати гениальная идея . Другое дело что алгоритмы и скрипты апдейтятся гугля постоянно и во время апдейта не исключено что система может выдавать подобные финты, машина ошибок не дает , но человеческий фактор исключать нельзя.
Ну оочень сомнительно. Перед тем как новые скрипты на основной проект вводить тестируется ведь все по много раз на тестовом полигоне. :)
use_experimental_spamscore, use_spamscore - явно считают "коэффициент" спама. Тогда отсюда получается, что use_query_classifier узнает вероятность спама (заспамленность) по данному запросу. И потом use_spamscore решает: считать сайт спамом, учитывая запрос, или нет.
А на самом деле модули можно обзыавать, как хочется, поэтому не факт, что названия соответсятвуют действиям. Может быть это как раз вариант защиты, на случай появления такой ошибки :)
А про человеческий фактор - имхо, 90%, что правда ошибка всплыла.
Про то что не сообщалось: возможно просто очень редкий запрос, который пытается узнать 1 из 100 миллионов. И зачем рядовому пользователю говорить где-нибудь об этом?
hypno, тут не код...
cpu-speed 2800000000 = 2.8 GHz
avg-latency-ms_total 3545152552 - хитрое значение avg - загрузка сервера короче...
Данная инфа не дает секретов гугли... Это к Минычу надо - он все по полочкам разложит ;) - останется только понять его рассуждения :D но он вроде только Яшей занимается...
use_spamscore
Ясно понятно, что поисковики хранят какие-то признаки спамности ресурса - да вот только название переменных ничего нам в руки не дает...
Блин ИМХО
40 процентов что утка гугля
40 процентов что чел пиарит свой сайт
20 процентов действительно ошибка
40 процентов что чел пиарит свой сайт
кто именно и какой именно?
Судя по ссылкам, это вообще кто-то на форуме вопрос задал.
Небольшой комментарий на эту тему от Matt Cutts. Отшутился:
–initial_time_travel_wormhole=”Wednesday, December 31 1969 11:11 pm”
–use_googlepray=false
–docid_size=more-than-four-bytes
–SETI_alien_communication_port=31337
–skynet_sentience=0.33
–plane_load=snakes
–pigeonrank_seed=42
–use_mentalplex=true
–unicorn_versus_werewolf=its-on-now
Ясно понятно, что поисковики хранят какие-то признаки спамности ресурса - да вот только название переменных ничего нам в руки не дает...
–use_experimental_spamscore
–use_gwd
–use_query_classifier
Тут он еще явно каким-то образом классифицирует запрос.
По поводу спама: в защите от почтового спама используется некий коэффициент (ключ), которой вычисляется из письма и не должен превышать определенное значени, иначе письмо считается спамом. Вполне вероятно, что здесь у них что-то аналогичное используется. И если это так, то у меня возникает ощущение, что коэффициент зависит от запроса...