- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Немного не так.. лечится meta noindex или x-robots (но с этим опять же в другой раздел) ...
я о конкретном пациенте, ivan-lev, так что всё именно так как есть. да и в данном случае в текущий момент пациент вполне здоров и этот мусор ни на что не влияет, только глаза мозолит.
но вообще лечиться можно, есссесссно, разными "пилюлями" с "хирургическим вмешательством" в панели вебмастера заодно. вопрос в другом, что лечить придётся явный косяк админа, а не некий глобальный и непреодолимый "способ получения мусорных дублей в индекс" причём системный, а не паранойя о "происках завистников и зложелателей" типа этого ;) :
... Примеров, как про убивца индекса ещё не приводили? типа такого?
все эти выдуманные адреса-дубли не более чем страшилка для полных нубов, и "убийцы индекса" из них как из Навального мэр...
Т.е. если я положу все закрытые ссылки в тегах A в JavaScript-файл, который потом закрою в robots.txt, то ПС их увидеть не должна и таким образом прятать ссылки через эмуляцию тега A другими тегами через JavaScript (как это описано было в статье) - это уже излишестово.
Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS
И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента
Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.
Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).
Конечно, избавление от дублей - не было первостепенной задачей при разработке ЧПУ. Но найти разделы, создающие дубли, мне найти не удалось.
А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго.
вы не уловили засаду в поставленной задаче 😂 на самом деле скрытый посыл звучит как то так "покажите сайт, который гарантированно не выдаст одинаковый контент на нескольких выдуманных кем-то вариантов урла"
Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.
Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...
Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS
И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...
Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.
Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).
А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго. Не скрытый посыл, а так прямо и сказанный: покажите хотя бы сайтег, на котором нельзя создать дубля.
Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.
Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...
Богоносец, спасибо огромное! За ссылку в подписи, где-то отложена была, все не мог найти, спасибо.
ни о чём не говорит что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).
мусор в дополнительном индексе гугла торчит годами (ведь адрес отдаёт 200, хотя и 404 отваливаются у него очень не быстро), только вот не участвует в ранжировании. ну и никто не мешает всю эту пачку левых адресов разом удалить из индекса руками, кстати.
ну а сниппет честный гугел по ходу дела удалил сам в подтверждение текущего заперта индексации, всё легитимно...
я понял убедить вас в чёт-то просто невозможно, вы просто не сможете поверить то что эти страницы создавались именно такими какими вы видите их сейчас в 28.04.2012 уже было в индексе :)
Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...
Ну да, мысль вроде, того, что в природе не существует таблетки от всех болезней.
я понял убедить вас в чёт-то просто невозможно, вы просто не сможете поверить то что эти страницы создавались именно такими какими вы видите их сейчас в 28.04.2012 уже было в индексе :)
burunduk, я верю в вашу искренность, это не обсуждается, я не верю в чудеса.
да, и я так понял, что с тех пор (28.04.2012) не добавилось новых страниц почему то? ;) почему бы это? системные дубли плодятся тысячами, вне системные - единицами.
ЗЫ: burunduk, я тут по ходу везде спамлю пакет, который "сорвал мои js-шаблоны" 😂 AngularJS смотрели? имхо: как раз для вашей/моей идеологии фреймворк, но подход к делу оч интересный...
не добавилось новых страниц почему то? почему бы это? системные дубли плодятся тысячами
это не системный дубль, а искусственно созданный мной, просто мне была важна сама возможность и я создал убийцу 404, другие это уже не моё творчество ;)
всё очень просто: в выдаче гугла они есть т.к. на эти страницы есть внешние ссылки - запрет в роботс и 404 ответ сервера, для гугла не повод исключить страницу из выдачи ;)
---------- Добавлено 09.09.2013 в 10:55 ----------
но подход к делу оч интересный..
мне честно говоря не нравятся конструкции вида:
... запрет в роботс и 404 ответ сервера, для гугла не повод исключить страницу из выдачи ;)
ок, вы специально эмулировали ошибку админа №открвтая страница результатьв поиска". по сути те же грабли вид снизу ;)
ну а в серпе реального запроса они светятся? без служебного анкора?
вот это будет "чудо", а то что по служебному анкору гугел высветил дополнительный, ни на что не влияющий индекс. и это это не фокус и не баг системы - это фича гугла...
... мне честно говоря не нравятся конструкции вида:
там много что выглядит поначалу не изящно (как отдельные конструкции) - мы все испорчены многолетней работой с мутулсами/джекверями.
зато результат целиком выглядит как какой то фокус, настолько всё становится адекватным и удобным для расширения.
просто не только просмотреть надо его - сделать пример из гитхаба хотя бы, потратить час/другой. результат реально срывает шаблоны...
ну а в серпе реального запроса они светятся? без служебного анкора?
https://www.google.ru/search?q=%D1%83%D0%B1%D0%B8%D0%B9%D1%86%D0%B0+%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B0+404
1место ;)
результаты поиска всегда были закрыты и отдавали 404
А вставить фреймы не?
Удобнее в реализации, шире в применении.