Yetti3

Yetti3
Рейтинг
105
Регистрация
19.10.2010

Используйте лучше «Маремото» http://www.maremoto.ru/

;)

On Air, 16 пост, задавал 3 вопроса и ни один не получил ответа,

/ru/forum/comment/9638767

типа очень жаль,

видно всех интересуют одни "оригинальные тексты" (к слову лажа какая то, непонятно для кого сделанное, к тому же не учитывается ведь)

и ещё по теме,

ребята какие то отмороженные чутка, особенно тот что по Skype;

и иногда в поддержке отвечают прямо "дятлы" какие то, несмотря на конкретный вопрос или сообщение об баге..

богоносец, понятно, спасибо

богоносец, вот ты говоришь что в описание не должна попадать информация схожая/пересекающаяся с тайтлом и вообще глупо было бы один и тот же кусок показывать всегда, т.к. должно всё зависеть от запроса -

и это всё правильно и логично ;)

Ранее я вообще забивал на все метатеги вроде meta name="description" и "keywords" - типа нафиг они не нужны и даже думал что когда нибудь поисковик вообще не будет обрабатывать такие формальности, но одним прекрасным днем Яндекс разрекламировал дескрипшены (типа информация может попасть в описание) - да так что я с ребятами в фирме стали заказывать куски у копирайтеров для всех продвигаемых страничек (для успокоения всего отдела в целом :))

Но ведь получается что грамотней всего вообще не указывать ничего в "description" (как и незачем писать "keywords") - тогда сформированный автоматически сниппет будет наиболее лучше отвечать на поставленный запрос :)?

Всё верно или я чего то не догоняю?

MiRaj, в смысле удалить H1-h6?

удалить теги h1 и h2 (я вот обычно только их использую :)), или убрать вообще визуальное выделение и разбиение текста на заголовки и подзаголовки?

webzart, :),

забавно, жалко что не в сказке живем..

Yetti3 добавил 08.11.2011 в 22:28

On Air,

# когда нибудь интерфейс будет показывать страницы которые загружает робот Яндекса, а не только их количество?

Встречаются дубли ссылок (страниц) на движках и что-бы закрывать ссылки в роботcе, нужно знать от куда они берутся и какие загружается роботом;

# если с индексацией нет никаких проблем, то зачем существует sitemap.xml, для стандарта что-ли? Добавлял ради эксперимента - может висеть не загруженным чуть ли не полгода..

# почему расширенные сниппеты лишь для главных страниц?

Чаще всего ответом являются внутренние страницы

Было бы удобнее просто сделать 2-3 версии вывода (строки сниппетов) и указать для каждой свой список страничек (URL) (скажем не более 10 страниц, дабы без хамства использовалось - и все были бы счастливы ;))

Прочитал тему,

интересный спор - но тут явно прослеживается скорее то, что Яндекс уже зарвался в борьбе с оптимизаторами,

(не путать со спамом, а именно с продвижением), и именно это как то и раздражает 😒

:) всегда смешно такое читать,

напоминает стиль tar799,

удачи тебе тролль

Уважаемый, ну что заставляет писать здесь такие длинные тексты "ни о чём"

Есть вообще сайты на продвижении то?

Оптимизатор имеющий хотя бы 20-30 коммерческих сайтов на попечении - не станет писать что то с названием "Теория: Главная качественная характеристика ссылки",

не проще закупить в разных местах, использовать разные методы, и постоянно пробовать что то новое чтобы быть в ритме тенденции

+ во всех нормальных компаниях есть отдел аналитики и связи с другими компаниями или оптимизаторами из других фирм и смотря на успешные и не очень в большой выборке - делаются правильные выводы 🍿

Ну что за привычка блин,

показывать пример или скриншот нужно бы 😒

Всего: 606