- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Замечу насчет метода генерации дублей внешними ссылками. Самый простой способ избежать санкций от ПС - это добавлять в страницу материала атрибут rel="canonical", тем более что и Яндекс, и Гугл заявляют у его полной поддержке (пруф и пруф).
Поправьте, если я ошибаюсь.
Это менее правдоподобно. Небесплатно (кто за это заплатит), более сложно придумать и контролировать - и "простейшие" алгоритмы глючат и не подтверждаются практикой жизни.
Возможно, что именно так "Им" хочется, чтобы вы так думали. И у "Них" это получается. ;) Закономерности прерываются рандомайзером - вот и попробуй их (эти закономерности) вычислить. Отличный защитный механизм.
Указывать на страницах canonical с правильным url - не такая уж и простая задача, особенно если сайт не простенькой структуры и url'ы подразумевают GET-параметры. Скажем, это довольно неплохая ниша для создания плагинов для популярных CMS или, возможно, непосредственно CMS, у которой эта фича будет визитной карточкой.
На амиро, битриксе, юми нет такой возможности. Просто нет и все.
Кст, на Амиро есть управление дублями и контроль дублей.
Указывать на страницах canonical с правильным url - не такая уж и простая задача, особенно если сайт не простенькой структуры и url'ы подразумевают GET-параметры. Скажем, это довольно неплохая ниша для создания плагинов для популярных CMS или, возможно, непосредственно CMS, у которой эта фича будет визитной карточкой.
Для той же Джумлы всё уже давно есть. sh404sef справляется со всеми дублями. Только что сервер грузит, но от этого никуда не денешься.
Про друге CMS не скажу - не в курсе. Делаю сайты на Джумле или без CMS.
Для той же Джумлы всё уже давно есть. sh404sef справляется со всеми дублями
Че, правда чтоле? 😂
Кст, на Амиро есть управление дублями и контроль дублей.
Ты вообще ниасилил, про что топик, и сказал дурь.
если я правильно понял о чем речь, то они сами виноваты, надо было движок настраивать нормально, чтоб 404 отдавал, а не 301=>200
чтоб 404 отдавал, а не 301=>200
Тут вопрос в 200 просто.
Тут вопрос в 200 просто.
ну это насколько я в курсе, тем хуже для них, ежели и 301 еще. вообще дико конечно что сайты такого уровня так лошат
ну и опять же, по поводу старт поста: а чего тут яшке то предъявлять? формально, яндексоиды правы тут, это же использование бага на стороне сайта, а не на стороне яндекса. т.е. будет ли этот баг использован - зависит от веб мастера.
Че, правда чтоле?
Йес! :)
Поизголялся над одним своим сайтом на Джумле. Че только не добавлял в урлы - ответ 404/500/301 в зависимости от условий.
Так что, не пойму сути проблемы.🍿
Разжуйте, пожалуйста, хоть чуть-чуть.;)