ValD

ValD
Рейтинг
146
Регистрация
14.06.2007
Утка-робот:
По-моему, вы не прониклись.

Для комментариев WP можно использовать первую форму, а можно установить плагин и сделать как во втором случае. Преимущества объяснять надеюсь не нужно?

Да я проникся, но вы рассказываете про с/без OpenID.

Я же спрашиваю, в чём разница между логинзой и другими сервисами? И там, и там - openid-провайдеры.

Хм, снова конторы-агрегаторы?

Почему Яндекс не хочет работать с поставщиками услуг напрямую? У них же есть рабочий проект - Я.Маркет, который при всех недостатках нередко помогает. Там вроде с магазинами напрямую идёт взаимодействие.

ZoidbergxD:
Сейчас каталог проиндексирован полностью, но странц каталога в индексе нет.

АААААаа, мой мозг!

По теме: проверьте, правильно ли роботс отдаётся, нет ли где ещё запретов, корректно ли ссылки на страницах стоят.

И ждите. Можно ещё в Яндекс написать. Там тоже ответят "ждите".

п.с.

А в гугле что?

Закрытое от индексации всё равно индексируется, но не учитывается в ранжировании (по словам ПС).

Также страницы, ссылки на которые находятся на "закрытых" адресах, тоже будут проиндексированы.

Рискну предположить, что робота просто неоптимально делать так, чтоб он мог выборочно что-то жрать. Он жрёт всё, а затем уже ненужное отсеивается.

п.с.

Из гугла можно удалять целые каталоги, заново он редко ест закрытые адреса. Это чтоб из выдачи пропало.

С яндексом похуже, но тоже можно.

spyfox87:
Нет такой возможности. domain.com уже имеет хорошие позиции (top 5-10) в немецком сегменте, в гугле. Изначально сайт был только немецким.


Нет, есть один большой sitemap со всеми страницами. Надо сделать 3 разных? Как это указать поисковикам?

Есть предположение, что если будет русский домен domain.ru - будет проще его продвигать и конкурировать в поисковой выдаче?

Или лучше иметь один домен на все языки и прокачивать его?

Лучше один с хорошей структурой, чем отдельный новый. И с разметкой страниц описанным выше способом.

Указать несколько сайтмапов можно в роботсе, просто подряд:

Sitemap: http://1.xml

Sitemap: http://2.xml

и т.п.

В сайтмап разметка локализации тоже добавляется при желании.

Собственно, много чего ещё можно проверить/настроить, но это уже надо брать сеошника на аутсорс, который и за сайтом посмотрит, и с поддержкой ЯНдекса при необходимости поругается.

spyfox87:
Яндекс индексирует очень медленно, он походу вообще не понимает структуру сайта.

Так помогите болезному. И гуглу заодно.

Сайтмапы есть на каждую версию?

Для никогда не пользовавшегося OpenID просьба объяснить, в чём отличие сервиса от openid.yandex.ru и гуловского аналога?

Mark-M:
Коллеги, наставьте на путь истинный.
Почему такая разница между копией в Яндексе и реальной страницей?

Так файлы CSS же не применяются.

А у вас какая задача? Чтоб в сохранёнке всё красиво и с дизайном было?

Яндексу вся эта мишура не нужна, если текст и ссылки индексируются - больше ничего не нужно.

Сейчас СДЛ - это просто новое название ГС. "Качество" "выше", но суть та же: никому не нужный сайт под поисковики с 3.5 случайными посетителями в месяц.

А сайты, которые на самом деле живые и с людьми, по-прежнему редкость.

Rotten2:
22 страницы тарахтения ни о чём... одна вода...

Если уж Мэтт Каттс признал значимость входящих ссылок для определения алгоритмами ранжирования качества сайта. И невозможностью от них отказаться.

То про Яндекс и говорить не стоит.

Если клиент спрашивает "что вы думаете про отмену ссылок в ЯНдексе", прикрываться Каттсом из гугла получается так себе (тем более он известный клоун).

Как выкатят алго в Яндексе и месяц покрутят, так и можно будет смотреть, что у них получилось.

Тему надо было ещё на старте заморозить до официального релиза этого "Вообще без ссылок".

Всего: 691