- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В джумле существую дубли страниц (страница с одним и тем контентом имеет несколько адресов)
www.site.ru/novosti.html
www.site.ru/index.php?option=com_content&task=view&id=175&Itemid=354
Вопрос в том, как для страницы вида www.site.ru/novosti.html найти все дубли вида www.site.ru/index.php?option=com_content&task=view&id=175&Itemid=354.
Подскажите пожалуйста, для меня это очень важно.
у вас joomsef?
да, используются sef ссылки
Поставить sef компонент чтобы были нормальные урлы, и в Robots.txt прописать Disallow: /index.php
нет, я имею ввиду компонент joomsef стоит или обычный сеф джумлы? если джумсеф - могу сказать как посмотреть
проблема в том что в продвижении используются ссылки 2 типов, для одних страниц novosti.html, для других index.php?option=com_content&task=view&id=175&Itemid=354, поэтому я хотел найти все дубли и запретить их в роботсе
VAY добавил 31.01.2010 в 11:59
нет, я имею ввиду компонент joomsef стоит или обычный сеф джумлы? если джумсеф - могу сказать как посмотреть
А как это узнать, я в джумле вообще не разбираюсь.
если сайт ещё не проиндексировался, ставьте компонент джумсеф, настраивайте его и в индекс влезут только страницы с нормальными урлами, потому как будет стоять редирект с index.php?option=com_content&task=view&id=175&Itemid=354 на novosti.html
если сайт ещё не проиндексировался, ставьте компонент джумсеф, настраивайте его и в индекс влезут только страницы с нормальными урлами, потому как будет стоять редирект с index.php?option=com_content&task=view&id=175&Itemid=354 на novosti.html
сайту уже год, все давно проиндексировалось
проблема в том что в продвижении используются ссылки 2 типов, для одних страниц novosti.html, для других index.php?option=com_content&task=view&id=175&Itemid=354, поэтому я хотел найти все дубли и запретить их в роботсе
и скрее всего в выдаче яндекса
страница index.php?option=com_content&task=view&id=175
а в гуле index.php?option=com_content&task=view&id=175&Itemid=354
и скрее всего в выдаче яндекса
страница index.php?option=com_content&task=view&id=175
а в гуле index.php?option=com_content&task=view&id=175&Itemid=354
Вообще по большинству запросов релевантные страницы для Я и Г совпадают, только проблема в том, что позиции в яндексе все в топ10, а в гугле скачут 20-40.
Я думаю, что проблема как раз в дублях.
Остается найти все дубли, только как это сделать?
VAY, сделайте переадрессацию со старых на новые, это артио позволяет в настройках
проблема в том что в продвижении используются ссылки 2 типов, для одних страниц novosti.html, для других index.php?option=com_content&task=view&id=175&Itemid=354, поэтому я хотел найти все дубли и запретить их в роботсе