- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вышел небывалый казус с настройками сервера -
/ru/forum/800041
В индексе гугл числится 21800 страниц дубликатов с ip номером вместо главного домена.
Каким образом их можно удалить ?
robots.txt в этом случае вроде нельзя использовать
через панель вебмастера 22000 тоже нереально выкинуть.
Как можно было бы лучше всего удалить все страницы с номером сервера вместо ip ?
Для начала, поставьте 301 редирект с http://ip на http://site.com
Для апача это можно сделать с помощью .htaccess, примерно так:
Спасибо.
Сначала сделал на php в стиле
if($_SERVER['HTTP_HOST']!='host.com'){ header('Location: http://host.com'.$_SERVER['REQUEST_URI'], true, 301);exit(); }
потом поменял на ваш вариант.
Спасибо.
Сначала сделал на php в стиле
if($_SERVER['HTTP_HOST']!='host.com'){ header('Location: http://host.com'.$_SERVER['REQUEST_URI'], true, 301);exit(); }
потом поменял на ваш вариант.
Ну, как это реализовано для ПС без разницы. Ждите переиндексации. Если в разумный срок страницы не уйдут, останется два варианта:
1) Отказаться от переходов на http://ip, отдавая для этих страниц 404. Наверное, можно даже отдавать 404 с помощью header(), а саму страницу показывать. Но тут надо у тех "кто в курсе" поинтересоваться не воспримет ли ПС это как клоакинг.
2) Сделать скрипт, для автоудаления url-ов через вебмастер. Чтоб не заморачиваться с авторизациями, сессиями и прочей фигней, скрипт можно написать для GreaseMonkey, войти в аккаунт на нужную страницу, а он пусть уже отсылает поочередно url-ы. Если он будете добавлять по 2 url-а в минуту, то добавите все за пару ночей. Тут правда я не знаю, может там есть какие-то ограничения на кол-во url-ов.
Но, я думаю, что 301 редирект - это правильный выход. Может, еще есть смысл добавить в robots.txt:
чтобы указать главное зеркало для Яндекса, если там такая же история..