сказано же, что речь идёт о сотнях факторов. Впрочем, хотелось бы узнать, а есть сайты с перелинковкой под АГСом?
он проверяет сотни вещей, сказано же ;).
сетка сетке рознь. Бывают сетки реально покруче многих так называемых СДЛов.
Выводы все на поверхности!
Ответьте для себя, есть ли точные факторы говорящие о том, что сайт будет в топе по некоторому запросу? Можно ли их однозначно просчитать?
Уже забыли чтоли как проводится настройка алгоритма для построения выдачи в яшке? Сколько факторов? Какие подходы?
Работа по настройке фильтра АГС ничем не отличается в своём подходе! Точно так же есть сотни факторов, по которым, похоже, ассесоры проводят анализ сайтов явных ГС и до кучи тех, кто вылетел не заслуженно.
Факторы корректируются, алгорит подстраивается, и если сайт вылетел незаслуженно, то после подстройки алгоритма, этот сайт не должен вылететь и т.д.
Подборки совокупности значений факторов интерполируется на все сайты. Совпала комбинация значений - сработал фильтр.
Это раньше было проще и уже при визуальной проверке сайта можно было практически однозначно судить попадёт сайт в бан или нет!
Например, если на сайте 20% ключевика в скрытом диве, то можно гарантировать бан или фильтр.
Сейчас гораздо сложнее. Факторов много и совсем не явных. Может быть несколько совсем мелких нарушений, но в своей комбинации вполне достаточных для попадания сайта в бан или под фильтр. Вот и попробуйте их увидеть? ;)
В прочем, если делать сайт в первую очередь для читателей и развивать его не спеша, выполняя ручной труд, то не думаю, что сайт пострадает. А если и влетит под АГС, то достаточно будет написать письмо яшкоидам. Вот так-с вот всё просто. ;)
p.s. Яндексу, конечно, ничего не мешает и пожертвовать парочкой СДЛов, если это позволит правильно охватить как можно бОльшее число ГС.
Если не ошибаюсь, то можно просто в папке для вики добавить одну директивку, в итоге, должно получиться что-то типа этого:
Так он и выполнил обещание, потому что ошибки были исправлены. Я об этом писал в топеге.
Но через пару дней опять выкинул из индекса, оставив только главную. Изменений на сайте не вносилось.
никогда по этому поводу не парился (Host нужный прописан и пока ни разу не подводил).
И тем более причина фильтра явно не в этом.
такие "дубли" есть у абсолютного большинства сайтов, что не мешает им хорошо жить.
сами сказали же:
Хочется правильно понять:
От этого зависит подход к выводу из бана (ИМХО):
Если в пределах всех новостей и статей на сайте будет 5-15 разных тегов, то да, может подойти как вариант. Тогда их действительно будет 5-15 на странице. Думаю, это почти идеальный вариант.
Но есть лучший вариант!
Если вы не знаете за чем вам облако тегофф на СДЛ, то уберите его нафиг с сайта!
Когда созреете для его использования, тогда сделаете разумно и так как действительно нужно, а не в виде бестолкового полотна из ссылок.
p.s. есть уж очень хочется созерцать своё облако, то хотябы запихните его в noindex или запретите индексацию страниц по тегам в robots.txt
Эт точно. Я ещё не видел ни одного сайта с полезным облаком тегов. Но на базе облака очень хорошо делать тематическую перелинковку, например, когда к статье идёт привязка других тематических статей по ключевикам из облака. Это действительно может быть полезно, причём для людей, а не только поисковиков. Вот это и рекомендую, но тут тоже с умом нужно делать.
Если кто знает сайты действительно с полезным, информативным и удобным облаком тегов (ключевиков) для посетителей, кидайте в личку. Спасибки.
абсолютно не факт, что речь про внешние).
Процитируйте-ка весь ответ Платона.
ТС сказал про 20 ссылок за 11 сек, похоже, 20 000 ссылок будут проверены менее чем за 4 часа.
20 кило лучше проверять на сервере с хорошим входящим каналом. Скорость проверки должна быть повыше и ненужно комп оставлять включенным. Да и надёжность подключения к Инет у хостеров по выше.
Хотелось бы получить стату, у кого за сколько по времени тучи ссылок проверяются?
Хостер не блокирует хостинг за нарушение соотношения входящего/исходящего траффика?
Где лучше разместить подобный скрипт для проверки тучи ссылок?
Я, думаю, лучше всего прописать скрипт на выполнение в CRON на серваке.
А по окончании работы скрипта высылать уведомление, например, на мыло.
Что-то с шириной не однозначно. Возможно, потому что 20+20+58!=100%
Моё ИМХО.
p.s. вот на реальном сайте всегда что-то новое вылазит: пробел лишний, картинка больше чем нужно шириной и т.п.
возможно, есть смысл добавить оверфлоу: хидден.
неправильно проверяете, похоже.
Так, много страниц.
Так, почему-то тоже только одна страница выдаётся и то не главная.
Есть ещё вот такой вариант (только нужно проверять по отдельности, например, с www и без).
Взято в качестве примера с http://be1.ru/stat/?url=vashmaster.ru