- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Я тебе это ещё на первой странице написал.
Никакие cannonical и гет параметры не помогают. Жаль что никто мне не подсказал Disallow: /?* Кучу времени бы сэкономил.
"canonical" помогает, если писать без ошибок (с одной "n"). И про Disallow давно вам написал:
Нужно использовать rel="canonical" или Disallow для адресов со строкой запроса.
Просто я про роботс мало что знал и не думал что можно запретить все, что после определенного знака.
"canonical" помогает, если писать без ошибок (с одной "n"). И про Disallow давно вам написал:
не помогает исключать такие страницы
Да, это все нужно делать сразу. Т.е. это средства не "исключения", а "недопущения". Даже статус 404 не всегда помогает. Именно для "исключения" есть специальный статус 410.
Оно не то что бы не помогает я не знаю в чем там дело точно. Просто он сперва признал канонической, потом что-то типа она не каноническая через 3 дня прислал, потом мол опять...может со временем как то это устаканится, но такие танцы с бубнами напрягают если честно.
Если бы сразу было настроено, то таких "плясок" не было бы.
Атрибут я не убрал, но закрытие роботс для данной проблемы намного эффективнее
Если бы сразу было настроено, то таких "плясок" не было бы.
Намного эффективнее использовать программные каркасы, не допускающие дублей. Директивы robots.txt лучше использовать для существующих (уникальных) страниц, которые не должны индексироваться. Причем опять-таки директивы добавляются сразу при создании таких страниц, а не потом, чтобы пытаться их "исключить".