Kosmo

Kosmo
Рейтинг
58
Регистрация
19.11.2003
Как писал Cossack


4. Сквозная ссылка - выделение и подчинение.

Со всем полносью согласен, кроме этого пункта.

Можно поподробнее, что подразумевается под выделением и подчинением?

Как писал Avelon


Не будет он этого делать, по крайней мере пока. В идеале конечно надо сделать ротатор, который из списка описаний (штук 100 например, если сквозная стоит на оч большом сайте) выбирает рандомом текст и вставляет на страницу сайта.

Да но URL домена то останется прежним. То есть тут 2 фактора, текст и URL.

Как писал Avelon

Сильнее, однозначно. Четких наблюдений нет, но мнение есть.

При этом невзаимные ссылки ставятся на страницах например ссылок, а сами ссылки ведут на морду, но ни как не на страницу где стоит обратная ссылка. То есть поисковик анализирует все ссылки и на какой сайт они ведут в целом, и если эти сайты (не страницы) в целом ссылаются друг на друга, то это считается накрутокой, и вес ссылок очень понижается.

Я это к тому что, нет особых сложностей отслеживать сквозные ссылки, даже если они ведут на разные страницы раскручиваемого сайта.

Поэтому и интересуют наблюдения насчет веса сквозных ссылок

Как писал Avelon



нажимать "еще с сайта" не пробовали, все ссылки вам и покажут.


Век живи век учись. :)



Как писал Alex Kirillin
Со всюду учтет, не партесь. :) Имеет смысл ставить сквозную.

Вот тут поподробней можно про минимальный вес ссылок в пунктах меню. Какие-то у вас уникальные наблюдения. :)


Да был один сайт, прописал ему в меню кейвордсы, через месяц сайт полностью переиндексировался - результат 0.
Приводить пример нет смылса там уже все переделано на корню.

А существенный ли прирост от сквозной ссылки? Насколько приблизительно они слабее такого же количества ссылок с разных сайтов?



Вообще если подходить с точки зрения идеального (не заспамленого, и не оптимизированного) документа, то по статистике сквозные ссылки это счетчики или реклама. То есть то что Яндекс об этих ссылках знает, еще не говорит о том что они все учитываются.
Сомнительно чтобы в книге например на каждой странице было указание на другую книгу. Поэтому такие ссылки можно рассматривать как накрутку.
С точки зрения поисковика достаточно просто отсеять такие вот сквозные, одинаковые ссылки и понизить их в весе.

Так же как и меню, если оно практически везде одинаково то вес таким ссылкам надо давать минимальный. С точки зрения зравого смысла конечно.

С тех же позиций очень легко вычислить взаимные ссылки, и с тем же успехом понизить. Кстати у кого какие наблюдения на этот счет,
То есть насколько НЕвзаимные ссылки сильнее?
Как писал aka352
Remake, за одного битого двух небитых дают - народная мудрость.

nppkornet, у нас много сайтов хостится на валуе и достаточно давно - случаев, чтобы второй домен попал в индекс Яндекса или других поисковиков еще не случалось. Но даже если и попадет, то 99%, что Яндекс второй домен просто сделает зеркалом.

Т.к. у этого "хостера" ежедневные проблемы, то очень часто веб-мастера заходят по второму адресу, например чтобы проверить сайт, или если скажем домен забыли оплатить а хостинг еще есть. Да мало ли еще по какой причине. А если на сайте стоит счетчик топ100 то рамблер о вашем секретном адресе Абязательно узнает. И не факт (даже совсем не факт) что склеит.

А что касается хостера - то бегите от него так как только можете, это беда а не хостер.

Всем опять привет,

екарный бабай, не ожидал такой реакции. Честно говоря в форум захожу только по ночам, днем просто завал работы, поэтому отвечаю на все прозвучавшие вопросы только сейчас (спасибо за понимание Anatoliy_K).

Во- первых, и это самое главное: Прозвучало деловое предложение от которого трудно отказаться:

Как писал LiM
Kosmo,
Предлагаю хостинг на SeoMan.ru под Ваш скрипт.

Сразу скажу что в планы мои пока не входило заниматьтся общественной деятельностью и создавать публичные сервисы, да и план-график очень плотно сверстан уже до конца года, поэтому завтра утром скрпит готовый к работе с исправленными ошибками (да там есть ошибки этож первая драфт-версия) ждать все таки не стоит.

В ближайшее время я обязательно свяжусь с LiM для обсуждения вопросов размещения скриптов.

Теперь о скриптах (персонально для greenwood - они существуют):

Вообще я думал что у большинства оптимизаторов уже имеются в загашниках какие-то подобные вещи, ну у Текарта то наверняка есть (невозможно же отследить все в ручную на таких объемах). В инете промышленных аналогов или даже анонсов аналогов не нашел (кстати Cossak а что является критерием промышленного? Кол-во людей занятых в процессе (а если это комюнити Linux не оформленное официально)? Или то что это выпустила фирма (а если в ней один человек то чем результат отличался бы если бы он не был официально зарегистрирован)? Или отсутствием ошибок в софте (Windows что не промышленный продукт)? В прошлый раз ты кстати два дня с восторгом отзывался о какой-то CMS промышленного производства, а потом через полчаса юзанья стер ее на фиг ;), на всякий случай: я здесь про Гугл и PR ничего не говорил)

Тем не менее я сделал скрипт под свою CMS, вследствии чего скрипт юзает достаточно большое кол-во ее классов

и чтобы скрипт выдрать из CMS нужно эти классы переписать (потому как отдавать все вот так вот целиком не хотелось бы: причин много: от банальной жабы до извращенного самодурства), но раз уж делаем общее дело и все таки спрос есть (спрос точно есть,и чую что те кто говорит что его нет - первым погорит) - значит перепишем и переделаем на благо всем.

Кроме того как я уже сказал скрипты я написал совсем не давно и писал я их под себя и свои надобности и не факт что большинству скрипты в таком виде будут удобны,

кроме того там полно багов которые надо поправить, на это тоже уйдет время.

Ну вот например: если вебмастер взял и оформил гиперссылку вот так: <a href="">текст</a> т.е. просто пустой URL - я такое предположить не мог и мой регэксп на этом валится.

Кроме того есть страницы на которых просто ошибки в верстке (и таких кстати не мало) это тоже все портит.

Конечно же такие косяки потом руками проверяются. Нельзя же упустить сайт с хорошим PR а вдруг именно эта ссылка имеет ключевое значение на ранжировании результатов.

Первое тестирование я проводил на реальных сайтах, вот тут кстати первое упоминание о результатах:

потом результатов стало очень много (из тестовой полсотни сайтов осталось что то около 120)

Уже закругляюсь и подвожу итог:

1. будет сервис анализирующий сайт на предмет корректности ссылок (robots.txt; javascript; noindex)

2. будет черный список с детальным описанием того как данный рессурс обманывал. Список будет модерируемым так что случайно туда попасть будет сложно.

Все спорные вопросы будут регулироваться так же как регулируются вопросы бана в службах поддержки поисковиков (да так же медленно и так же трудно, но как говориться береги честь смолоду).

В конце то концов должно же быть наказание за такие вот безобразия.

Что могу твердо пообещать:

1. Готов работать над созданием публичного сервиса (всякие корыстные выгоды типа денег - скорее нет, типа ссылок скорее - да. Появятся после завершения тестовой эксплуатации)

2. Скрипт в тестовой эксплуатации появится не ранее Нового Года (с наступающим кстати :)) - ну очень много работы. Если кого-то это не устраивает, и он хочет сейчас и бесплатно и с исходниками - то готов уступить пальму первооткрывателя, без всяких копирайтовых и имущественных претензий :) поэтому если завтра кто-то напишет аналогичное лучше и быстрее меня буду только рад.

3. В независимости от того как повернутся звезды, скрипт я все таки когда-нибудь допишу до какого-то логического конца, поскольку надоело тратить траф за инет на проверку добавляемой ссылки.

4. не стреляйте в пианиста, он играет как умеет.

Всем всего доборого.

Смотрите фтубол, и меняйтесь ссылками честно.

С Вами был Kosmo

PS:Не принимайте как оскорбление если я не отвечаю на письма - работа, семья, дети...

Как писал thrawn001
Kosmo,
все у них ок.
смотрите внимательней - в ноуиндекс закрыты счетчики, а ссылки открыты.

Ну раз так то я вам посоветую тоже внимательно ознакомиться с главной их страницей.

<noindex>

***

<area alt="Наши партнеры" coords="4,425,6,404" href="/partners.php">

<area alt="Наши партнеры" coords="7,425,193,404" href="/partners1.php">

<area alt="Ссылки" coords="5,448,7,427" href="/links.php">

<area alt="Ссылки" coords="8,448,192,427" href="/links0.php">

***

</noindex>

И еще выше пара тегов.

Смотрите внимательнее прежде чем делать скоропалительные заявления

На самом деле тему можно закрыть. Те кто понял - тот понял, тот кто не понял тот пусть фак читает.

Как писал Hetman
Марь Иванна... а Вовочка обзывается ;).
Imho не стоит оно того.

Hetman может вы тоже подобными вещами занимаетесь? Поэтому и не стоит эту тему подымать?

Вопрос не в том что стоит оно или нет - просто не красиво обманывать людей. PR то у них не фиговый - он же не просто так вырос, а то что на ссылках 0 так это от того что раньше ссылочная страница имела другой URL вот и все.

Как писал Avatar
Kosmo, не правильно помните.
Была квота на сожранные и переваренные за раз документы, но судя по всему она более не актуальна.
Может ему (Я) ссылки не видны, а может просто ПОКА не съел остальные страницы.

Ну вот судя по тому какие документы проиндексированы, наверное есть ограничение на кол-во уровней при заходе за раз.

кстати обратил внимание что Aport при реконструкции текста не обращает внимание на теги noindex

Отличная штука, единственное разочарование - невозможность отключения бегущей строки.

Как писал Kost
При поиске по каталогу, или просто в каталоге?
Если первое - сначала идут сайты, где запрос в НАЗВАНИИ. Затем - сайты, где запрос только в описании.
Если второе - приведите пример рубрики.

Ага, понял.

А сначала в Названии потом в описании? Или все равно?

и морфология при этом влияет?

Часто ли ищут в каталоге в процентном соотношении от простых заходов в рубрику?

Всего: 172