JavaScript в HTML в качестве аналога Include в PHP

DiAksID
На сайте с 02.08.2008
Offline
236
#31
ivan-lev:
Немного не так.. лечится meta noindex или x-robots (но с этим опять же в другой раздел) ...

я о конкретном пациенте, ivan-lev, так что всё именно так как есть. да и в данном случае в текущий момент пациент вполне здоров и этот мусор ни на что не влияет, только глаза мозолит.

но вообще лечиться можно, есссесссно, разными "пилюлями" с "хирургическим вмешательством" в панели вебмастера заодно. вопрос в другом, что лечить придётся явный косяк админа, а не некий глобальный и непреодолимый "способ получения мусорных дублей в индекс" причём системный, а не паранойя о "происках завистников и зложелателей" типа этого ;) :

ivan-lev:
... Примеров, как про убивца индекса ещё не приводили? типа такого?

все эти выдуманные адреса-дубли не более чем страшилка для полных нубов, и "убийцы индекса" из них как из Навального мэр...

show must go on !!!...
богоносец
На сайте с 30.01.2007
Offline
774
#32
Bytexpert:
Т.е. если я положу все закрытые ссылки в тегах A в JavaScript-файл, который потом закрою в robots.txt, то ПС их увидеть не должна и таким образом прятать ссылки через эмуляцию тега A другими тегами через JavaScript (как это описано было в статье) - это уже излишестово.

Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS

И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...

DiAksID:
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента

Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.

предположение, что "завистники и зложелатели" начнут тратить время и ресурсы специально засовывая в индекс ПС какие-то особо хитрож*пые ссылки на "мой любимый СДЛ" суть не более чем оторванная от реальности паранойя...

Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).

jondeer:
Конечно, избавление от дублей - не было первостепенной задачей при разработке ЧПУ. Но найти разделы, создающие дубли, мне найти не удалось.

А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго.

DiAksID:
вы не уловили засаду в поставленной задаче 😂 на самом деле скрытый посыл звучит как то так "покажите сайт, который гарантированно не выдаст одинаковый контент на нескольких выдуманных кем-то вариантов урла"
Не скрытый посыл, а так прямо и сказанный: покажите хотя бы сайтег, на котором нельзя создать дубля.

Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.

Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...

K
На сайте с 13.03.2013
Offline
8
#33
богоносец:
Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS

И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...

Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.


Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).
А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго. Не скрытый посыл, а так прямо и сказанный: покажите хотя бы сайтег, на котором нельзя создать дубля.

Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.

Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...

Богоносец, спасибо огромное! За ссылку в подписи, где-то отложена была, все не мог найти, спасибо.

[Удален]
#34
DiAksID:
ни о чём не говорит что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).

мусор в дополнительном индексе гугла торчит годами (ведь адрес отдаёт 200, хотя и 404 отваливаются у него очень не быстро), только вот не участвует в ранжировании. ну и никто не мешает всю эту пачку левых адресов разом удалить из индекса руками, кстати.

ну а сниппет честный гугел по ходу дела удалил сам в подтверждение текущего заперта индексации, всё легитимно...

я понял убедить вас в чёт-то просто невозможно, вы просто не сможете поверить то что эти страницы создавались именно такими какими вы видите их сейчас в 28.04.2012 уже было в индексе :)

K
На сайте с 13.03.2013
Offline
8
#35
богоносец:

Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...

Ну да, мысль вроде, того, что в природе не существует таблетки от всех болезней.

DiAksID
На сайте с 02.08.2008
Offline
236
#36
burunduk:
я понял убедить вас в чёт-то просто невозможно, вы просто не сможете поверить то что эти страницы создавались именно такими какими вы видите их сейчас в 28.04.2012 уже было в индексе :)

burunduk, я верю в вашу искренность, это не обсуждается, я не верю в чудеса.

да, и я так понял, что с тех пор (28.04.2012) не добавилось новых страниц почему то? ;) почему бы это? системные дубли плодятся тысячами, вне системные - единицами.

ЗЫ: burunduk, я тут по ходу везде спамлю пакет, который "сорвал мои js-шаблоны" 😂 AngularJS смотрели? имхо: как раз для вашей/моей идеологии фреймворк, но подход к делу оч интересный...

[Удален]
#37
DiAksID:
не добавилось новых страниц почему то? почему бы это? системные дубли плодятся тысячами

это не системный дубль, а искусственно созданный мной, просто мне была важна сама возможность и я создал убийцу 404, другие это уже не моё творчество ;)

всё очень просто: в выдаче гугла они есть т.к. на эти страницы есть внешние ссылки - запрет в роботс и 404 ответ сервера, для гугла не повод исключить страницу из выдачи ;)

---------- Добавлено 09.09.2013 в 10:55 ----------

DiAksID:
но подход к делу оч интересный..

мне честно говоря не нравятся конструкции вида:

<span>{{remaining()}} of {{todos.length}} remaining</span>
DiAksID
На сайте с 02.08.2008
Offline
236
#38
burunduk:
... запрет в роботс и 404 ответ сервера, для гугла не повод исключить страницу из выдачи ;)

ок, вы специально эмулировали ошибку админа №открвтая страница результатьв поиска". по сути те же грабли вид снизу ;)

ну а в серпе реального запроса они светятся? без служебного анкора?

вот это будет "чудо", а то что по служебному анкору гугел высветил дополнительный, ни на что не влияющий индекс. и это это не фокус и не баг системы - это фича гугла...

burunduk:
... мне честно говоря не нравятся конструкции вида:

там много что выглядит поначалу не изящно (как отдельные конструкции) - мы все испорчены многолетней работой с мутулсами/джекверями.

зато результат целиком выглядит как какой то фокус, настолько всё становится адекватным и удобным для расширения.

просто не только просмотреть надо его - сделать пример из гитхаба хотя бы, потратить час/другой. результат реально срывает шаблоны...

[Удален]
#39
DiAksID:
ну а в серпе реального запроса они светятся? без служебного анкора?

https://www.google.ru/search?q=%D1%83%D0%B1%D0%B8%D0%B9%D1%86%D0%B0+%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B0+404

1место ;)

результаты поиска всегда были закрыты и отдавали 404

AlexandrSG
На сайте с 14.11.2010
Offline
74
#40

А вставить фреймы не?

Удобнее в реализации, шире в применении.

Консультации, Inside/Outside (/ru/forum/809679) оптимизация/продвижение

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий