G00DMAN

G00DMAN
Рейтинг
122
Регистрация
19.04.2008
юни:
Это третий вопрос, немного в стороне от первых двух: допустим, сайт автора "Гарии Поттера" (или сайт новоявленной поп-дивы) является образцом того, как не нужно делать сайты: он увешан рекламой, с него ведёт тонна ссылок на левые ресурсы, на нём очень мало контента по теме, и т.п.

Но - он является сайтом автора контента, причем сайтом единственным (из всего их числа ресурсов, этому контенту посвящённых).

Уместно ли будет лишь на этом основании считать его более релеватным нашим запросам, чем мегабиблиотеки и музыкальные порталы?

Конечно же нет. Более релевантным будет лучше оптимизированный под текущий алгоритм. :)

юни:
Как Вы думаете, есть в данном случае у истца какие-либо перспективы? Или всё упирается исключительно в хостеров, а поисковик не при чем?

Перспективы ничтожны, затраты на серьезное бодалово с Яндексом - очень высокие. На порядки выше прибыли с любого авторского контента, полученной посредством рунета.

юни:
Если поисковик не может опознать всех воров в данный момент (и заранее угадать, кто из них вор в будущем), то, во всяком случае, он может четко определить одного - и единственного - не вора, первоисточника либо правообладателя (хотя и далёким от технических методов способом).

И поставить его (замечу, вполне справедливо) на место более высокое, чем остальные сайты (причём не обязательно всегда и везде на первое).

Не может, пока нет технологии.

В Яндекс.Новостях начали попытки поиска первоисточников, мягко рекомендуя партнерам ставить гиперссылку на автора. В случае с поиском и тыреным контентом такой метод не покатит. :)

Технологические решения в теории есть, но и только. Например - создается некая серьезная юр.контора по защите авторского контента в рунете, где можно за бабло пройти процедуру присвоения авторства. На страницы с таким контентом ставится некий маркер "первоисточника", а в поисковике (по договору с этой юр.конторой) прописываются алгоритмы проверки маркера. После чего дубли или ранжируются ниже, или вообще не включаются в индекс, в зависимости от требований автора и залитого им бабла. Но такае идеи малореальны. :)

basilic, нет у Сеопульта никакого общего метода для пропаливания. Для каждого бюджета используется своя линейка фильтров. Таких линеек много. Более того, наверняка Сеопульт даже для одинаковых бюджетов использует разные линейки, эксперименты должны постоянно идти, благо есть на ком их ставить. :)

savage:
Употребляйте в тексте с предлогом и без и ставьте ссылки с предлогом и без. Во-первых, такая ссылка более естественная с точки с зрения самого словосочетания, во-вторых, предлог почти совсем не утягивает ссылочный вес на себя, в-третьих, разбавление анкоров.

Так ТС ставит 50% анкоров с предлогами, куда уж больше? К тому же ТС достаточно опытный оптимизатор, если он уже начал ставить анкоры "в стоматологии в москве", то наверняка в тексте акцептора все гуд.

Возможно алгоритм сейчас настраивается не только по гео-зависимости, а еще и по коммерции запроса, причем для разных регионов запрос может быть коммерческим или нет. Это гипотеза, а не утверждение. :)

Если принять такую гипотезу и к тому же предположить, что запросы с предлогом не коммерческие, то можно попробовать поставить длинных некоммерческих анкоров с точным вхождением и малым весом длинного хвоста. Лучше в Майнлинке, чтобы длина была больше максимума Сапы.

Выше я предложил анкоры типа #во#, но их Яндекс может посчитать спамными по длине (после эпопеи с анкорами ввиде точек и пробелов). Поэтому, как вариант - поставить анкоров вида #во во во!#. :D

wilelf:
Кроме того, еще стоит вспомнить про частоту встречаемости предлогов в текстах коллекции.

Не, частота предлогов тут ни при чем, да и встречаемость предлогов в тексте или в тайтле в большинстве случаев не поможет. Хотя можно провести забавный эксперимент - наставить анкоров с одним предлогом, типа #во#. Вдруг прокатит? :)

wilelf:
GoodMan, кстати, как там волынка? Играет?

Не играет, я все забываю стукнуть в аську, научиться мучить свои прокуренные легкие. :)

G00DMAN добавил 06.09.2009 в 13:15

Str256:
Одинаковую. Это геозависимые запросы.

Мде, действительно. Я посмотрел топ-10 по Москве и России, а Питер и Е-бург упустил. :)

Alexey Levin, например "недвижимость во франция" и "недвижимость франция" имеют разную гео-зависимость, разные настройки алгоритма. По "недвижимость франция" Вы во всех регионах в топе? ;)

Madal:
Интересует такой вопрос:

Как проверить донора на фильтр "ты последний". Слышал мнение что самый быстрый способ определить - это проверить через яндекс url="www.донор.ru"|url="нулевой-сайт.ru"

Под нулевым-сайтом понимается сайт, которые не имеет вес в поисковой системе, т.е только только вошедший в поиск.

Так ли это.

Возьмите пачку нулевых сайтов и пачку не нулевых. Прогоните каждый нулевой с каждым не нулевым дважды, меняя местами в запросе. Почти наверняка на выходе получите не однозначные данные.

Вывод: я бы не стал доверять такой методике, не всегда это так.

wolf:
Машина времени есть в наличии? :)

Жалко, что каникулы кончились, можно было бы предложить ставить на старые сайты очень старые анкоры, типа:

#01.01.2006. Новости: с новым годом!#

:D

bukvofil:
Меня интересует кто-то из участников диспута в состоянии на базе этого хотя бы составить какое-то особое ТЗ для копирайтера? Превращение алгебры в ТЗ? Такое, чтобы документ вышел в ТОП по ВЧ при бюджете в 20 долларов? ТЗ будет всё таким же, как в 2003, 05, 08.

Возможно, что скоро придется превращать эту "алгебру" в ТЗ. "Алгебраическое" ТЗ составить не проблема, и софт необходимый копирайтеру можно дать, нужно ли - пока не до конца ясно. ;)

edishe, похоже на то, что сайт останется старым для Яндекса и на продвижение это влияет, хотя выборка у меня не большая, могу ошибаться.

basilic:
Конкуренцию уже просчитали? :)

Да тут и считать не нужно. У амеров все запатентовано, возьмите тот же гугл - владельцы патентуют каждый пук своего мозга... :D

Тут же засудят, у россиянина в штатовском суде присяжных шансов практически нет, не зависимо от правоты. Проверено лично.

Всего: 1960