DiAksID

DiAksID
Рейтинг
236
Регистрация
02.08.2008
burunduk:
а вот из сапы и иже .... за это донор может уйти в бан по стуку, т.к. скрытие ссылок в данном случае не оправдано (скорей всего) :)

так в сапе я именно реципиент ;) был бы донором - не поднимал бы "вопрос" от греха...

burunduk:
DiAksID, с какой стати обнулять такие ссылки?
если пользователь имеет возможность их увидеть, правда то что касается классического меню, то лично мое мнение смысла скрывать ссылки нет, я бы вообще вывел их через скрипт, что бы точно не проиндексировали :)

сформулирую точнее: ;) я про ссылки внутри блоков, у которых изначально стоит display:none (например), а уже потом скрипт высвечивает их при надобности. слабо верится что бот будет анализировать все js, и выяснять - появится ли блок на экране, или так и останется скрытым. логичнее - обнулить их вес нафиг, что бы скрытый текст не пропустить.

Вы не ставили "чистых" экспериментов?

burunduk:
Евгения Бахвалова, хорошо отнесется :)
если скрытые блоки пользователь может увидеть (в результате своих действий), если нет то бан по стуку в 99% случаев

а какой вес ссылок в блоках "невидимых по техническим причинам"?

дисплей в ноне или позишен в минусе - обычный общепринятый приём, банить было бы глупо. то что они индексируются и ссылки из них в бэках проявляются - факт.

но вот всё же терзают смутные сомнения - а не обнуляют ли их вес на всякий случай, что бы "скрытый текст" не пропустить ненароком?

Ruganin:
Ну я сейчас глянул сайтик ~800 ссылок, с анкором только 4 ссылки, остальные смайлы, тиц 350, рай для мордоворота...

а PR какой? Гугел повёлся?

yalokcin:
Вопрос еще в следующем: как корректно и главное бесплатно сделать (и делать его постоянно) этот файлик? :) а то либо ограничения на программах стоят, либо платные, либо фиг работают...

корректно и бесплатно? ;) например: самому скрипт написать, ничего там заумного нет...

Владимир-C:
То есть, если создать файл Sitemap.xml, но вовремя не добавлять туда записи о новых страницах, то индексация будет только хуже?

вопрос тёмный. по моим впечатлениям - Гугел слегка снимает с себя ответственность, за поиск новых страниц, если находит sitemap. да и то - слегка. ;) и это вообще логично - индексатор больше начинает ползать по сайту, за счёт краулера.

выгода в том, что ПС сразу узнают о всех страницах сайта. даже о тех, до которых краулер мог месяцами доползать.

кроме того в ней много дополнительных фич - приоритет, например. хотя насколько корректно это работает - вопрос тоже мутноватый.

1. в sitemap надо включить все значимые для сайта страницы. и регулярно обновлять её при появлении новых;

2. для Гугла - есть фича в панели вебмастера. а вообще, что бы указать sitemap всем основным ПС используйте директиву Sitemap в robots.txt;

burunduk, +1

вообще фраза

Для того чтобы полностью исключить страницу из результатов поиска, даже в том случае если другие сайты могут содержать ссылку на нее, используйте метатег noindex – его необходимо включить в HTML сайта - и убедитесь, что страница не появляется в robots.txt.

выглядит очень коряво, если не сказать - безграмотно. синхронный перевод видимо ;)

sokol_jack:
И если таки методика работает, то:
1. Скоро самые трудолюбивые будут растить ТИЦ значительно быстрее.
2. В блогах наметится значительное оживление коментаторов :)

ну так смайлами спамить уже начали активно ;)... прогресс, однако...

umklaidet:
Это уже для тех, кто может себе позволить риск.

выгода владельца от удачного продвижения - на порядки выше заработка оптимизатора (иначе и не заказывали бы seo). но все риски предлагается перенести именно на менее заинтересованную сторону? не логично как то (имхо)

Всего: 2557