xant

xant
Рейтинг
65
Регистрация
17.12.2008

пишут много чего, вот только с примерами склееных анкоров туго:) Ну в принципе, те кто пишут про склейку, советуют разбавлять часть анкоров левыми словами.

может просто не на всех серверах успели забанить? подожди до завтра-послезавтра, мож оно устаканится...

ossadchy:

- табличная верстка воспринимается плохо поисковиками(и вообще плохо воспринимается большой % тегов не предназначенных для разметки текста, т.е. НЕ p, h[1-9], ul, ol, li, strong, b, i, u...);

Это, извините, откуда? Ссылку в студию, плз.

xant добавил 07.01.2009 в 04:56

Vanich:
Верстка на основе div и css куда более гибкий инструмент, чем таблицы.

Была бы, если бы не кривой ИЕ...

"Резиновость" на дивах тоже... нда.

В целом для чего-то удобнее таблицы, для чего-то дивы.

xant добавил 07.01.2009 в 05:13

2 ТС: В самом деле, попробуйте взять хорошую бесплатную русскую CMS и перезалить контент в неё. Прелесть в том, что вы подберете темку с более-менее нормальным дизайном и потом будете её потихоньку "дорабатывать напильником" - при этом имея хоть что-то. Вот только не знаю, что вам посоветовать, wordpress это всё-таки блог, textpattern для вас тяжеловат... гугл в помощь, короче.

В сапу, пока не нарастите тиц, советую не лезть. А тиц вы так просто не нарастите.

Как вариант - чтобы отбить затраты на хостинг, размещайте у себя чужие статьи за деньги. И потихоньку наращивайте ссылки бесплатными способами.

Траст - это внутренняя оценка доверия ПС к сайту. Как именно она вычисляется, знают только разработчики конкретной ПС. Однако ж оно есть у всех поисковиков.

Как оно проявляется:

1. Пример плохого траста - это фильтры, когда сайт индексируется, но вылазит в серпе только по названию сайта/урлу.

2. Практика показывает, что чем больше возраст сайта - тем выше его траст. Влияют также и другие факторы, в том числе качественное долгоживущее ссылочное, вот только неизвестно какой на сколько. При этом собственно ТИЦ может быть и не очень большой.

3. Сайты с хорошим трастом сами собой вылазят в топ по НЧ вообще без внешних ссылок, причем даже по неключевым запросам.

4. Известно, что гугл очень хорошо относится к дмозу, википедии, а также сайтам адобы, правительства США и самого гугла. Хотя врядли в интернете так уж много ссылок на дмоз, вики или адоб.ком

labadun:
Сори за офтоп, но влом топик создавать.
Ксапа это вобще тихий ужас!! Недавно раскопал свой старый ак (примерно пол года не заходил) - там 6 говносайтов. С сервера я их снёс также примерно пол года назад, а вот из ксапы удалить поленился. В итоге пол года ссылки торговались с несуществующих страниц несуществующих сайтов. Деньги исправно начислялись. 😆

Похожая ситуация, только со стороны О. В мае решил попробовать ксапу, закинул 1000 рубликов и закупил на них какбы-ссылок на месяц. Посмотрев результат, решил отказаться из-за совсем уж сильной степени "палева" (хотя +1 ПР эти 1000 рублей дали). С июня, соответственно, ссылки не оплачивались. Однако ж ~10% купленных в мае ссылок висят до сих пор, при этом ксапа честно считает мне отрицательный баланс...

По поводу ГА и серпа. Смотрим privacy policy гугла:

Google обрабатывает личную информацию только в целях...
# проверка, исследование и анализ, позволяющие поддерживать, защищать и улучшать наши службы;
relaxamos:
Ради такого утверждения можно написать "умный" crawler который будет ходить по серпу, открывать сайты, делать отказы и т.д. Да и проверить просто.

Я думаю там учитывается ip. Можно конечно зомбонет запустить, но согласитесь это не самый распространенный метод черного сео. Может проще улучшить собственный контент, чтобы посетители оставались довольны?

devzev:
Но попав на сайт понимают, что тут реферата нет и уходят. Разве это показатель, что мой сайт плох? ;)

Да, это показатель, что ваш сайт плох по запросу "блаблабла реферат".

На самом деле, открываем google.ru и смотрим, что там внутрях серпа.

А внутрях там каждая ссылка оформлена вот так:

<a onmousedown="return rwt(this,'','','res','1','AFQjCNEdYCG7PAIR3jrQBW2rWrnSXhkkyw','&sig2=48OQJF5XzDkFyJ29zzWjzw')" class="l" target="_blank" href="http://сайт.ру">

Смотрим, что там делается в функции rwt()


window.rwt=function(b,d,e,g,h,f,i){var a=encodeURIComponent||escape,c=b.href.split("#");b.href="/url?sa=t\x26source\x3dweb"+(d?"&oi="+a(d):"")+(e?"&cad="+a(e):"")+"&ct="+a(g)+"&cd="+a(h)+"&url="+a(c[0]).replace(/\+/g,"%2B")+"&ei=xF5fSbOOCYyT-gafp_27Dw"+(f?"&usg="+f:"")+i+(c[1]?"#"+c[1]:"");b.onmousedown="";return true};

В переводе с жабаскрипта на русский это значит вот что:

1. Изначально пользователю отдаются прямые урлы;

2. В момент нажатия на ссылку она подменяется на урл вида

http://www.google.ru/url?sa=t&source=web&ct=res&cd=2&url=http%3A%2F%2Fсайт.ру%2F&ei=xF5fSbOOCYyT-gafp_27Dw&usg=AFQjCNHozh3xpT7yn-ba_PmjC4LOkNobXw&sig2=v_2wsmbo7pOSvSEqILX8_g

3. И наконец смотрим, что же там находится по этой подмененной ссылке:

HTTP/1.0 302 Found

Location: http://сайт.ру/
Cache-Control: private
Content-Type: text/html; charset=UTF-8
Set-Cookie: PREF=ID=1482e32580d1891a:NW=1:TM=1230988180:LM=1230988180:S=qHsmwZ_4XUYJUjwD; expires=Mon, 03-Jan-2011 13:09:40 GMT; path=/; domain=.google.ru
Date: Sat, 03 Jan 2009 13:09:40 GMT
Server: gws
Content-Length: 254
Connection: Close

То есть имеем 302-ой редирект плюс установку куки, которая будет передана на гугл.ру при следующем поиске.

Вывод такой: гугл отслеживает все клики в серпе, и не просто отслеживает, а еще и строит историю каждого поиска. Если человек прошел по первой ссылке, вернулся в серп и прошел по второй - значит, первое место по данному запросу его не устроило. Если человек прошел по паре ссылок, затем вернулся в серп и уточнил запрос - значит, посещенные ранее ссылки его не устроили по уточненному запросу. Это очень ценная информация для ранжирования по конкретным запросам. Я кстати уверен, что анализируются только отказы - то есть ситуации, когда человек прошел по ссылке, а затем вернулся в поиск - это защита от накрутки.

Конечно, метод подходит только для результатов первой страницы - для остальных просто недостаточно статистики - но зато он позволяет очень качественно, вручную отранжировать топ выдачи по вч и сч запросам. А именно это гуглу и нужно.

Ну, теоретически возможен вариант, когда статистика собирается и затем никак не анализируется. Если вы уверенны, что дело обстоит именно так, просто подумайте, что гугл ради этой статистики в несколько раз увеличивает количество запросов к своим серверам, умножьте на количество обращений к гуглу в день или месяц и прикиньте, в какую сумму это обходится...

По-большому счету у современной фирмы есть четыре более-менее честных способа привлечения клиентов на сайт.

Первый - это медийка, суть баннеры. Оно в принципе работает, но только при точном соответствии аудиторий: например, баннер про продажу банных веников будет очень эффективен на сайте про бани. Поэтому баннеры - ручной метод, не технологичный.

Второй способ - контекст, суть директы-адсенсы-бегуны. Этот метод идеален для поисковиков, которые рубят тонны бабла, и очень сомнителен для рекламодателей. Конкуренция в чистом виде приводит только к тому, что цены за клик взлетают до 10-15 баксов. Это 300-500 буказоидов за привлеченного клиента, что просто нереально дорого для мелких и средних фирм. Только монстры типа сименса, даймлера или порнослоника могут позволить себе вкладывать в адсенс бюджеты небольших банановых республик, списывая средства по статье "имиджевая реклама".

Третий способ - продажные ссылки для накрутки серпа. Что бы там не заявляли гоша и яша, есть куча случаев, когда отказаться от подсчета ссылок просто нельзя. Например, человек ищет, в каком интернет-магазине купить бюджетную видеокарту от какого-нибудь дяди ляо под ником Palit или Powercolor, у которой единственное преимущество - цена. Ну, не может каждый из 100 интернет магазинов написать уникальное описание этой видеокарты, текст у всех будет точно такой, каким его дал сам Palit. Как их ранжировать в выдаче? Только по ссылкам... Сейчас взять и запретить продажные ссылки в рунете просто нельзя, ни гуглу ни яше. Всё чаще натыкаюсь на ситуацию, когда один и тот же коммерческий! сайт покупает ссылки на нужные страницы и продает с ненужных... (тут наверняка без слишком хитрых оптимизаторов не обошлось, но не суть). Если взять и забанить хотябы сайты, продающие ссылки, выдача станет нерелевантной. Гоша и яша это всё прекрасно понимают. Они с удовольствием бы забанили сапу с ксапой и начали бы грести еще больше бабла с директа, но... Поезд ушел года 3 назад.

Ну и последний способ - СМО, продвижение статьями. Стал популярен в буржундии, когда гугл начал банить за продажные ссылки. Там менталитет другой. У них "приличные" фирмы тут же отказались от накрутки серпа, как только гоша помахал пальчиком, и к ссылочному сейчас относятся как к спаму и дорам - то есть это используют, но только определенные, кхм, категории фирм. Для "белых и пушистых" оптимизаторы придумали продвижение статьями, точнее просто перенесли в инет привычную оффлайновую джинсу. Этот способ на ура принимается поисковиками, во-первых, потому что он дорог даже по сравнению с адсенсом, а во-вторых, потому что качественную джинсу даже человек не отличит от "естественного" положительного обзора сайта, товара или услуги. Но по сути своей этот способ омерзителен, самый мерзкий из всех, намного хуже спама и дорвеев. Люди привыкли не замечать баннеры и удалять спам, сразу понимают, куда попали, если их занесло на дор, и уж тем более никому не мешают пару строк мелким серым шрифтом в конце страницы. А вот СМО... Оптимизатор, точнее уже пиарщик, пишет статью, расписывает преимущества товара, который он толком не видел, и публикует эту статью от имени редакции сетевого издания. При этом юзер, зайдя на сайт, прочтя статью и купив товар, может так никогда и не понять, что его тупо обул сеошник.

Droppy:
А неужели никто до меня не догадался? Кстати, таким образом большие почтовые сервисы типа гугля, хотмайла, яндекса могут вообще в корне решить проблему спама на некоторое время. В этом случае спам сможет проникать только на мелкие хостинги. Но с точки зрения глобальности проблемы большие собратья могли бы создать специальный антиспам сервис для мелких братьев. Суть его заключалась бы в следующем: например гуглу бы скармливалось письмо, а он бы в ответ выдавал - спам это или нет на основе своих данных об этом. ☝

А с легальными рассылками как быть?

ninjaedit: опоздал, ага.

Обходится такая защита кстати элементарно - присылаем спам в виде картинки, причем картинка для каждого получателя генерится своя, как простейшая капча с небольшим процентом мусора.

Всего: 743