Ippi

Рейтинг
29
Регистрация
14.09.2009
makapoff:
Как снять фильтр или оставить в выдаче Гугла страницу типа www.site.ru/shop/

Если я правильно понял проблему, напрашивается rel="canonical". Или редирект. Правда, в выдаче гораздо проще оставить морду, чем /shop/.

alesty:
Вот еще сервис: http://site-perf.com/ - регулярно им пользуюсь: эмулирует кол-во потоков (браузер)

Да, это один из лучших простых тестов (сам иногда им пользуюсь для экспресс-анализа), но вот беда: эмуляция браузера не может ограничиваться только количеством поддерживаемых потоков загрузки; разные браузеры выбирают разный порядок загрузки контента, в них работают разные правила взаимной блокировки подгрузки стилей, скриптов, картинок и фавиконок; опять же, нужно уметь исполнять скрипты, в том числе асинхронно (кстати, рекомендую новый асинхронный код Google Analytics – можно срезать сотню-другую-третью миллисекунд, в зависимости от браузера и наличия других скриптов на странице). Увы, всего этого Site-Perf не умеет.

neznaika:
А что говорит вот этот сервис?
http://tools.pingdom.com/

Неправду он говорит – скрипты не выполняет, keepalive не поддерживает, тип браузера, расположение клиента и скорость канала задать не позволяет. Результат получается неправдоподобно быстрым.

Самым адекватным (хоть и не самым удобным) мне показался вот этот сервис. Загрузка, как я понял, производится реальными браузерами, результаты хорошо коррелируют с замерами из пользовательских гугл-тулбаров (т.е. теми, что показываются в Webmaster Tools).

makabra:
Так уж сложилось, что сложносоставные запросы на графике статистического распределения "популярность/запросы" размещаются, чаще всего, в "хвосте" и поэтому их принято называть long tale query

Да, так и есть, возможно даже, что Каттс это и имел в виду, но употребил он всё-таки термины "long tail searches" и "head searches", обозначающие статистическую, а не лингвистическую характеристику запросов. В очередной раз оставив нам возможность поинтерпретировать :)

kvizz:
А если на странице, закрытой в robots.txt, есть ссылки, то с нее вес будет перетекать по этим самым ссылкам? Т.е. запрет в robots.txt - на что больше похож? На мета "noindex, nofollow" или "noindex, follow"?

Disallow в robots.txt – это запрет доступа индексирующего робота к странице. Если робот подчиняется и не читает страницу – как он, по-вашему, может узнать о ссылках, расположенных на ней?

makabra:
машина Васи купленная им год назад в Германии (long-tail query)
...
Оптимизируя свои страницы под длиннохвостый запрос...
...
Mayday, который затрагивает запросы из множества слов

У вас наблюдается некоторый сбой в терминологии. Во всех вменяемых источниках "long tail" пишется без дефисов, и у него есть антоним - "head". То есть речь идёт не о "длиннохвостых запросах", а о "запросах из длинного хвоста", при этом подразумевается место запроса в статистическом распределении популярности, а не структура самого запроса.

Amigo_9876:
Что за новость ?

См. текст принимаемого в дикой спешке нового налогового кодекса.

Kvorum:
2) .... Если словосочетание попадается больше чем 1 раз на 700-1000 символов в тексте фильтр по слову.
4) Ограниченно количество словосочетаний с 1 страницы.

Не подтверждаю. У меня страницы с признаком №2 (повторы словосочетаний) полезли вверх, собирая сотни НЧ запросов каждая.

Ну, не знаю, у меня от мейдея примерно вдвое выиграл сайт, который почти не точился под конкретные запросы, а пытался покрыть некую техническую спецтематику. Да, там специально использовались различные ключевые слова в разных формах и сочетаниях, но в источниках трафика большинство запросов сейчас - длиной 3-5 слов и не соответствует точным фразам из текста.

Да, есть бэки с сайтов соотв. тематики, их немало и они естественные.

Вообще-то естественные бэки часто получаются с анкором, повторяющим урл или имя домена, и тут ключевые слова в урле/домене могут оказаться весьма кстати.

Всего: 318