- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Нескромный вопрос, почему неправильно?)
Читал давно мануалы Яндекса и там было чётко написано, что с хттп неправильно.
Здравствуйте. Кто-нибудь сталкивался с подобным? Сможете помочь закрыть от индексации подобные ссылки в роботс? Командой дизаллоу /? все сразу не могу пока закрыть. Есть нужные ссылки.
Вот подобное вебмастер засек. не знаю как. http://joxi.ru/V2VaDoYCxVRx6m
> https://novayagollandiya.ru/?155[1678650530]=51%20роза&155[2324139272]=101%20роза&156[1079288713]=&156[3136564918]
https://novayagollandiya.ru/?155%5B1678650530%5D=51%20%D1%80%D0%BE%D0%B7%D0%B0&155%5B2324139272%5D=101%20%D1%80%D0%BE%D0%B7%D0%B0&156%5B1079288713%5D=&156%5B3136564918%5D=>
https://novayagollandiya.ru/?154[2158199611]=Моей%20любимой&155[2324139272]=101%20роза&155[2977132244]=25%20роз&156[2360728836]=
Спасибо.
Верно ли настроен Robots. Все ли я учел?
Crawl-delay: 10
# Directories
Disallow: /includes/
Disallow: /misc/
Disallow: /modules/
Disallow: /profiles/
Disallow: /scripts/
Disallow: /themes/
# Files
Disallow: /CHANGELOG.txt
Disallow: /cron.php
Disallow: /INSTALL.mysql.txt
Disallow: /INSTALL.pgsql.txt
Disallow: /INSTALL.sqlite.txt
Disallow: /install.php
Disallow: /INSTALL.txt
Disallow: /LICENSE.txt
Disallow: /MAINTAINERS.txt
Disallow: /update.php
Disallow: /UPGRADE.txt
Disallow: /xmlrpc.php
# Paths (clean URLs)
Disallow: /admin/
Disallow: /comment/reply/
Disallow: /filter/tips/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/
Disallow: /user/logout/
# Paths (no clean URLs)
Disallow: /?q=admin/
Disallow: /?q=comment/reply/
Disallow: /?q=filter/tips/
Disallow: /?q=node/add/
Disallow: /?q=search/
Disallow: /?q=user/password/
Disallow: /?q=user/register/
Disallow: /?q=user/login/
Disallow: /?q=user/logout/
Disallow: oskar27.ru/uslugi/terapiya
Disallow: oskar27.ru/uslugi/ortodontiya
Disallow: oskar27.ru/uslugi/ortopediya
Disallow: oskar27.ru/uslugi/implantologiya
Disallow: oskar27.ru/uslugi/hirurgiya
Disallow: oskar27.ru/promo
Disallow: oskar27.ru/kontakty
Disallow: oskar27.ru/sertificates
Это Друпал, так понимаю)
А где Host: http://oskar27.ru?
Host
Sitemap
И вроде все, иногда делят по юзер агентам
Яндекс, гугл и остальным больше запретов
Host
Sitemap
И вроде все, иногда делят по юзер агентам
Яндекс, гугл и остальным больше запретов
Добавил. Еще какие то нужны отдельные запреты по страницам?
Здравствуйте. Я составил файл robots.txt по совету одного человека. Не знаю насколько он правильный. Взгляните пожалуйста и подскажите что исправить.
Сайт http://kinozed.com/ . Это кино сайт и я запретил индексацию фильмов в разделах (жанр, год, страна) дальше 1 страницы, так как все они есть уже на главной. Это для отсутствия дублей.
Это правильное решение или смысла от этого нет?
С сериалами проще - на главной их нет.
Всем привет.
Как прописать robots.txt чтобы от индекса была закрыта конкретная страница (а не весь раздел)?
User-agent:
Disallow: /folder/file.php
Правильнее будет так