KradaBash

Рейтинг
56
Регистрация
23.05.2014

Нашёл уже :)

$social_tags['site_name'] = $config['home_title'];

Вопрос, если удалить данную строчку, на сколько плохо отреагирует ПС?

Я проверил, все социальные кнопки как работали так и работают, всё отправляют в соц сети включая title новости и описание. Возможно данный тег отвечал за видео :)

Кто знает как удалить тег "og:site name" с dle?

Понял вся микроразметка хранится здесь: engine/modules/show.full.php.

Полазив так и не нашёл нужной строчки :(

АПАПА, кто знаком с подобным?

То что нужно снести возможные источники добавлений, это я ещё понял несколько месяцев назад. Как это сделать если не разбираешься в коде dle? Именно по этому я и пишу здесь.

Вот что я сделал:

Открываем /engine/engine.php, находим код :
$metatags['title'] = $nam_e . $page_extra . ' » ' . $metatags['title'];
Меняем на:
$metatags['title'] = $nam_e . $page_extra;
Далее ищем :
$metatags['title'] = $titl_e . $page_extra . ' » ' . $config['home_title'];
Меняем на :
$metatags['title'] = $titl_e . $page_extra;
Далее ищем код :
if ( $metatags['header_title'] ) $metatags['title'] = stripslashes($metatags['header_title'].$page_extra);

Данный способ не помог. Гугл новые страницы так-же добавляет с дублями title Главной странице через тире.

Некоторые люди пофиксили данную проблему, но говорить как отказываются, видимо секрет-секретный.

H2 нету, иерархия заголовков нарушена, не может быть такого: H1, h3, h4...

<title>Маневровый тепловоз ТГМ6 и ТГМ6А | Base-Road.Ru</title>

С движка удалить дубли title.

<meta name="description" content="Речь будет идти о маневровом тепловозе с мощностью 1200 л.с. Мы рассмотрим отечественный" />

Заполнить более привлекательней используя описания тега дескрипшион в самой статье включая ключи title - "основного" ближе к началу.

Ну это всё что бросилось в глаза. Самое главное, статья вроде для людей :)

Вводил site:мойсайт.ру и в поиске более 10000 страниц поддомена, а не основного сайта. В папке поддомена создал роботс и закрыл полностью индексацию т.к. поддомен просто сайт статистики с отдельной бд, он в поиске не нужен. Почему ПС его приставил к основному сайту без понятие ведь "поддомен" - считается отдельным сайтом. Так-же были страницы вида "Index of" не понять от куда - не с основного сайта.

Посоветовали на основном сайте добавить запись "Options -Indexes". Сайт на dle. Гугл нормально проиндексировал, а яндекс уже более 3-х месяцев не добавил в поиск. Платон ответил ждите у вас всё нормально - ну по скрипту как я понимаю.

zveroangel:
а в этой папке у вас ничего ценного /catalog/ ? а то мало ли..

Да у меня и папки такой нет :) http://site.ru/catalog/ открывает главную страницу.

Wiiseacre:
То есть, на основном домене и поддомене разные данные. Тогда тем более непонятно, зачем его закрывать и как это могло повлиять на индексацию. Разве что основной домен был зеркалом поддомена.

Тут, не видя сайта, вообще ничего не сказать, а может и сайта не хватит - нужен нормальный анамнез и вебмастер. Но я уверен, что вы не туда копаете - если контент на доменах не совпадал, проверьте внутреннюю страницу в https://webmaster.yandex.ru/site/robots.xml и напишите Платону.

Ну я вводил в гугл site:домен.ру и мне выводило 100000 страниц поддомена основного сайта, на первых местах попадались иногда норм страницы.

Нет никаких зеркал.

---------- Добавлено 02.07.2015 в 13:25 ----------

Напишу платону, что поделать :)

В яндексе на роботс вот:

Используемые секции

Строка

43-44

Host: site.ru

Sitemap: http://site.ru/sitemap.xml

46-87

User-agent: Yandex

Disallow: /*print

...

Вроде всё нормально.

юни:
А что техподдержка отвечает?

Я ещё не обращался :)

Wiiseacre:
Ничего не понятно. На поддомене был тот же контент, что и на основном сайте, и вы его просто закрыли в роботсе без 301 и зеркал? Роботс без сайта вообще бесполезен, если в нём только "Disallow: /" не стоит.

На поддомене отдельный сайт статистики всех пользователей с отдельной базой данной, страниц там более 1000 в основном одни цифры "данные" типа таблиц. Как увидел что все страницы попали в гугл, сразу его закрыл, создал файл роботс в директории сайта:

User-Agent: *

Disallow: /

Прошло недели \ 2, в яндыксе по прежнему 0 ссылок основного сайта.

Всего: 131