Вы не поняли меня. Если я написал "вопрос оптимизации текста на сайте опустим" то это вовсе не означает, что я не принимаю его во внимание!🚬 Я имею ввиду, что по данному вопросу я буду не хуже конкурентов, а значит при равной оптимизации контента на сайтах будет приниматься во внимание другие параметры для вычисления позиции в выдаче.
Тут вопрос был в другом - какой вес у ссылки, которая лишь частично сопадает по ключевику. Насколько они учитываются (не на ТИЦ а именно на позицию в выдаче).
И еще вопрос - если гипотетически допустим, что оба сайта оптимизировали свой контент одинаково, какие еще факторы влияют на позицию?
Вы имеете ввиду дор и т.п. бред или что именно вы подразумеваете под ГС?
И еще вопрос, как тогда Яндекс определяет какой сайт с 100% уником является ГС, а какой нет?
"Модули отслеживания дубликатов решают задачу неиндексирования дубликатов, то есть позволяют избегать резкого замусоривания базы повторами... Простейшая проверка на повтор содержимого состоит в вычислении контрольной суммы всех слов текста и в тесте базы данных на ее присутствие. Кстати, сразу после получения сигнала о точном повторе червь Яндекса получает команду не ходить по ссылкам от дубликата: логика такой фильтрации проста и очень популярна у всех роботов. Она построена на естественном предположении, что точно повторяющиеся документы содержат набор ссылок на точно такие же документы, какие уже получены по ссылкам оригинала." - Илья Сегалович, Компьютерра, 29 октября 2002 года
Неиндексирование дубликатов, по-мойму и есть бан.
Во-первых, коллега я по манимейкерству, а не по созданию ГС.
Во-вторых, как я уже заметил, я перешел на качественный рерайт статей.
В-третьих, тут полно людей которые занимаются заработком на этом, неужто я один такой 🚬
А тема всеравно остается актуальной и интересной.
З.ы. почему я не могу спросить то что меня интересует?
Пузомеркин добавил 02.05.2010 в 18:17
Кстати, по поводу ГС.
Это очень размытое понятие.
Как по мне, то любой блог это ГС, потому что там пишут всякую лабуду типа как я мыл своего кота а он меня поцарапал. Контент может быть уникальным, но врядли это кому-то интересно.
С другой стороны, то что кому-то не интересно, другому может очень даже понравиться.
Пузомеркин добавил 02.05.2010 в 18:19
Чей промах?
Ой, у меня аж руки чешуться, но не хочу крысятничать... Это наверное нехорошо по отношению к коллегам по цеху :)
Просто не совсем понятно следующее:
1. Если Яндекс обработал страничку почему алгоритм сразу не проверяет на уникальность и не банит, а только через некоторое время? Ведь можно ж сразу определять, что это фигня и не мучить вебмастера.
2. Остается не до конца понятным, каким образом некоторые черные мастера сеошники умудряются избежать бана своих сайтов, каждая страничка которых - всего одна строчка из расшифровки какой-нибудь сто раз написанной в инете аббревиатуры. Или например 1000 страниц квази-обявлений на тему недвижимости почему-то не банятся...