And-rey

Рейтинг
78
Регистрация
01.04.2012

ну вирусы же, ёпт!😡

жуть... :( вы поменяли адреса проиндексированных страниц. Теперь поисковик их не видит и убирает из индекса, считая их удалёнными из содержимого сайта. К примеру была хорошо проиндексированная страница www.site.ru/about.html и вдруг завтра стала уже другой - www.site.ru/about2.html, но с тем же содержимым. Поисковой робот сочтёт за дубль новую, а старую удалит из индекса, так как она теперь выдает 404... имхо, не более, так как пока только учусь =))

А быть сайтом своим в поисковых системах с www или без - это чисто " человеческая фишка-фактор" Уже года 4 как допустимы сайты без w или с ним... Единственное недопустимо быть в сети в двух вариантах - будет дубляж всех страниц, соответственно понижение в выдаче всего.

....пример из своей практики, ссылка со статьи на
википедии отображается в GWT, а сквозная ссылка из ЖЖ
нет. Обе ссылки имеют атрибут nofollow.

лучше бы расскали о загадочном rel=" nofollow", как гугл ссылки с этим атрибутом воспринимает: видет ли, учитывает, ходит по ним? Чего показывать народу плохие ссылки, пусть лучше точки над i расставят....

Moxie-Teenz:
.... просматриваю выдачу по некоторым запросам и вижу там дневники ЛиРу, сообщества вконтакте и сомнительные сайты....

по запросу загородной недвижимости, мне (в москве) выдало в топ20 3-4 страниц и групп из VK... Вот. Пришвартованных там людей ботов в группах от 300 до 7000. и нафига это SEO-продвижение, взял наделал сообществ и в гугл🤪

Dr.Dis:
Ага, ага, а потом в таком варезе находится закладка с отсроченной активацией...

я всё скаченное (шаблоны, плагины) с инета тестю только на локалке или на дежурном поддомене от хостера, но не на рабочем же сайте. Делаю это для выявления скрытых ссылок или вредоносного кода после инсталяции дополнений на сайт. Конечно же чистых паков с первого раза не найти... на то оно и бесплатно

Dr.Dis:
...и проект не настолько серьезный и разноплановый...

Тем более, никаких в дальнейшем обновлений движка не планируется. Сделайте на том, что уже обкатано пользователями. Согласен, админка в 3.0 приятнее... впрочем имхо =))

При вёрстке сайта, всё что связано с движками ВордПресс или Джумла... нет проблемы платный)) Точнее если и есть компонент или плагин платный, то через неделю он выложен на торрентах и варезах уже бесплатный. К примеру sh404SEF возьмите на томже рутрекере...

Ну а что касается джумла 3.0, то до сих пор не понимаю тех, кто проект с нуля строит на абсолютно сыром "альфа-варианте" CMS... Вопревых, разработчики выложили тестировать в массы, чтобы по жалобам на форумах исправлять ошибки и выпустить стабильную 3.5. Вовторых ну нет же ничего из компонентов и плагинов, которые стают на 3.0, а если и устанавливаются, то вылетают через неделю в ошибку 500 всем сайтом... имхо =))

...короче всяческие проблемы-непонятки с ссылками в джумла давно уже решаются с помощью компонента sh404SEF Описаний настроек и мест скачивания, в сети предостаточно. Пробуйте!

?!.. =)) так а зачем же поисковикам отдавать копипаст.... чтобы сайт под фильтр попал из-за неуника? Не понимаю предназначение копипастных статей у себя на блоге. Потом сидеть выводить сайт заново в индекс.

п.с. мож чего и не понял из этой дискуссии.. пардон))

в каком виде( чпу или нет) были отданы ссылки сайта поисковику, в таком и ставить в текстах страницы. Самый первый способ отсечения дублей страниц, это установка конструкции " Disallow: /index.php?" в файле robots.txt . И как потом робот пройдет по ссылке, если она вида нечпу - запрещена? Т.е. если на сайте чпу урлы, то так и остальное проставлять.. перелинковка, или что там еще.

а я вот сегодня код от TOP@Mail.Ru закинул в футер... и чего, хуже будет после апа с позициями?

Всего: 439