asmakovec2

Рейтинг
52
Регистрация
17.11.2009

Аналогично. Резкое падение трафа с яндекса.

Я когда зашёл в Li статистику - офигел. Сначала подумал глюк счётчика, пошёл глянул метрику - тоже самое.

PartW:
Да уже начало положено - 5 сайтов почти готовы.

Не забанят ли за 30 сайтов, если контакты не указывать? Единственная инфа у регистратора о кампании.

Ну если контент не будет одинаков - то не забанят. А то что инфа у регистротора одинаковая - это ерунда. Тем более можно эту инфу скрыть включив приват персон.

попробуй на другом шаблоне.

Andryw:
в роботсе для DLE 9.3 надо закрывать ???

Disallow: /page/ - не обязательно. на твоё усмотрение.

Disallow: /tags/ - нужно закрывать

вот такого вполне достаточно

User-Agent: *

Allow: /wp-content/uploads/

Disallow: /wp-login.php

Disallow: /wp-register.php

Disallow: /xmlrpc.php

Disallow: /template.html

Disallow: /wp-admin

Disallow: /wp-includes

Disallow: /wp-content

Disallow: /tag

Disallow: /category

Disallow: /archive

Disallow: */trackback/

Disallow: */feed/

Disallow: */comments/

Disallow: /?feed=

Disallow: /?s=

Host: www.site.net

Sitemap: http://www.site.net/sitemap.xml

dimarrik:
basilic, мистика😂

burunduk так разговор шел вроде как о карте сайта, хотя и ее можно обновлять, но зачем такой гемор..а про роботс я вроде ниче не говорил)

Не так меня поняли...Я как бы поддержал murvuz

та ну и пусть эти страницы будут в карте сайта. Их же всё равно не будет робот индексировать если закрыть в роботсе.

jungledrums:
Много, ну очень много разговор ходит по дублям, как от пользователей так и самим яндексом.

Дак вот предложения Яндексу:

Сделать такую же фиче как по уникальности контента, сделать так что бы вебмастера могли загружать только те страницы какие они хотели бы видеть в поиске.

Ну вот допустим я загрузил карту сайта в ЯВ у меня там одни урлы на статьи, а яндекс индексирует все.
А вот допустим я зашел бы ЯВ и ввел свои адреса которые хотел бы я увидеть в поиске и яндекс только бы их в поиск выводил, не, ну конечно если яндексу мои урлы с контентом не нравятся он бы их мог удалять по своим алгоритмам, но за то не индексировал бы всякие дубли и всякую хрень.

Как вам моя идея? просьба отписаться по теме

а что robots.txt отменили?

Какой смысл делать такой сервис если есть robots.txt? В котором можно запретить ненужные страницы.

xpycteamset:
asmakovec2,
прав.
ищи в этом модуле ссылку
http://goo.gl/dFyS5

даже не в модуле, а в базе данных. Этот модуль создаёт таблицу в базе данных и туда записывает переходы с поисковиков.

Лучше этот модуль вообще снести нафиг.

В индексе яши он есть.

С поисковиков перекидывает.

Сайт на ДЛЕ. Такая дырка была в модуле переходы. Если стоял или стоит этот модуль сноси его и чисть базу данных.

Всего: 507