Почти оффтопик. Сегодня по ОРТ опять какой-то политик плакался, что мол с пиратсвом дела обстоят хреново (смотря для кого правда :)).
Я вот думаю, что пиратять всяческих Тату, Алсу, Шуру и прочую муру потому, что реальная стоимость их творчества как раз у пиратов (гм. вообще-то оно на одном заводе штампуется, но речь не об этом)...
Вот и родилась мысля - Яндекс вот не жалует оптимизаторов с одной стороны, а с другой стороны клиенты жалуются на дороговизну Яндекса (не все автомобилями торгуют) и идут к нам, пиратам... тьфу оптимизаторам. Собственно возникает провокационный вопрос: изменится ли судьба оптимизаторов, допустим по отношению к продвижению сайтов только в Яндексе, если Директ подешевеет допустим в 4 раза? Цифру взял из Сашиной статьи - если торговать как раз теми самыми сидюками с Алсу и Тату, то за 1 доллар пожалуй и можно позволить себе получить покупателя, и то вряд ли, а вот 4$ уже не катит - сам товар стоит около 5$.
Ув. Профессор!
Позвольте Вас от всей души отхеппибёздить. :)
Из пожеланий: отыскать заветную формулу ch и поделится ей с форумчанами :)
Угу. Я сам много раз находил необходимую мне информацию на японских и китайских сайтах, при том что я не только не знаю иероглифов, но они уменя и в браузере только квадратиками отображаются :).
Если брать среднюю температуру по больнице, то у меня на сайте Гугль отстаёт от Яндекса % на 10. По конкретным запросам посещаемость может различаться в разы в обе стороны.
Виктор, почти не связано с Вашим сообщением, но всё же.
Есть всего два момента, которые заставляют меня ощущать себя полным идиотом. Во-первых, цитата:
"Обычная версия TCP предусматривает при передаче дробление данных на пакеты размером в 1500 байт, которые включают адреса машин отправителя и получателя. После завершения передачи пакета машина-отправитель ждет ответа от получателя, и если ответа нет, посылает данные повторно, на вдвое меньшей скорости."
Я вот почему-то считал, что размер пакета как раз варьируется в зависимости от качества связи. И скорость меняется не от того, что пакеты отправляются чаще или реже, а просто размер пакетов больше или меньше.
И во-вторых: "тестовую фотографию в 105 Mb наш алгоритм жал до минимума в 530 Kb, потом восстановил бит в бит". В голове укладывается плохо. Ибо помнится маленькая такая теоремка, доказывающая, что не существует алгоритма, который гарантировал бы сжатие произвольного фрагмента длиной N битов, по крайней мере, на 1 бит без потерь. Доказательство см. например тут: http://www.faqs.org/faqs/compression-faq/part1/section-8.html
Т.е. для _конкретного_ файла можно добиться такого ошеломляющего результата, а для _произвольного_... религия не позволяет в это поверить :).
З.Ы: фирма часом не ZeoSync называется?
Тьфу 3 раза, но я уже месяца полтора спама от "американцев" не получал. Может они догадались, что на *spb.ru московский спам слать бессмысленно? :) Кстати, немосковского спама практически нет, если выкинуть вирусный спам. А из московского меня больше всего повеселило приглашение приобрести тур на 300-летие СПб.
З.Ы: я так думаю, самый мощный фильтр будет на (095) в теле письма :).
Ни на то ни на другое. Точнее и на то и на другое, но не в такой формулировке. Небольшое напоминание о вероятностной трактовке PR - это попытка предсказать, с какой долей вероятности, сёрфер, перемещающийся только по ссылкам, попадёт на конкретную страницу. (есть попытка компенсировать в формуле переходы по закладкам и пр. type-in траффик, но я сейчас не об этом). Если на эту страницу помещают ссылку на более популярном ресурсе, то и вероятность посещения именно этой страницы будет выше. Если конечно посетитель не будет смущён обилием ссылок на конкретной странице.
Поэтому обилие внешних ссылок это всегда хорошо (и не только в поисковике). Однако, простым "удвоением контента" этого не добъёшся.
Задача такая - написать эксклюзивный текст, который не постесняются упомянуть в новостных лентах, возьмут в какой-нибудь релизоотстойник, или просто сошлются как на авторитетный источник при написании какой-либо обзорной статьи. Поисковики теми или иными способами воспроизводят "у себя в мозгах" наиболее вероятный путь продвижения пользователя по интернету, и в соответствии с этим путём ранжируют ссылки, которые по-другому отранжировать не получилось. При этом богатые - богатеют, а бедные - беднеют.
Другими словами, если скажем на сайте есть статья про товар Х модели Y, то писать такую же по качеству и объёму статью про модель Y1 смысла нет.
Выгоднее написать про отличия модели Y1 от модели Y, и поставить ссылку на статью про модель Y. Т.е. сделать вполне честный дорвей. И написать статью про модель Z, особенно если эта модель только на днях появилась.
Итого: драгоценное время надо тратить на улучшение качества контента и на инициализацию процесса проставления внешних ссылок.
З.Ы: я умышленно не говорю про различные каталоги и другие ссылкосборники, т.к. регистрация в них процедура одноразовая, и если и приносит какой-то профит, то на небольшое время - конкуренты тоже не спят :).
Если у Вас есть пара-тройка лишних килобаксов (не факт, кстати что и хватит), то мы сможем Вам помочь.
Конкретнее по Вашему вопросу:
Вы получите хрен целых фиг десятых тИЦ, с точностью до шкалы отображения тИЦ Яндексом, т.е. +/- 10 пунктов.
А вот тут-то килобаксы как-раз и пригодятся. Если Ваш сайт включают в каталог за бесплатно, то по определению на Ваш сайт уже обильно ссылаются. Поэтому точность определения передачи тИЦ по единственной ссылке запросто нивелируется погрешностями расчёта передачи тИЦ по всем остальным ссылкам.
Если Вам удастся включить за деньги в каталог Яндекса сайт без внешних ссылок, то поставив после этого единственую ссылку Вы имеете шанс определить долю тИца передаваемую по этой ссылке. При условии конечно, что за это время ссылки на Ваш сайт не нарастут естественным способом. Что-то мне подсказывает, что даже при условии включения в каталог Яндекса сайта за деньги такой исход весьма маловероятен.
Грубо конечно, но такова селява, как говорят хранцузы :D
Уф. Наверное можно было выучить наизусть :)
У Яндекса есть два индекса - большой и маленький. В маленький сайты попадают после добавления через форму и уже через несколько часов появляются в выдаче. Несколько раз в месяц происходит слияние большого и малого индексов. Очевидно, при этом начинают учитыватся некоторые параметры релевантности, до этого не учитывающиеся. Как правило сайты в полне закономерно теряют свои позиции. Впрочем, всё может вернутся на круги своя, после очередного обновления Яндексом индекса (или индексом Яндекса? :)).
Угу.
Скриптом пользуюсь. Отслеживаю по 40-50 слов за раз, мучая при этом Яндекс (и другие поисковики) в течение где-то 1-го-2-х часов, т.к. делаю промежутки между обращениями к одному поисковику в 5-10 секунд при переходе от страницы к странице + к следующему КС скрипт переходит только после того, как обойдёт все поисковики. Т.е. если на всех поисковиках (рунетовская 4-ка) скрипт удовлетворяется первой страницей, то с новым КС к одному и тому же поисковику обращение происходит через 23-25 секунд. Скрипт запускаю 2-3 раза в сутки после того, как происходит обновление в Яндексе. Проблем не испытывал. Хотя Яндекс и пытался мой комп на предмет прокси проверить :).