- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет, тут столкнулся с таким косяком в жумла, когда делал сайт и напонлял то в индексе появились дублирующие ссылки, допустим ссылка ведущая на картину вылядит так www.sait.ru/kartina , но в индексе еще появились ссылки на этот же материал в таком виде www.sait.ru/765398
www.sait.ru/nocategori/22.09.2010-03.04.2010
Т.е. на каждую нормальную страницу на сайте в индексе появились другие адреса этих статей.
И в итоге на сайте на котором 100 страниц в индексе более 200, как лучше убрать эти ссылки из идекса что бы не пострадали нормальные страницы?
PS sitemap сделал с нормальными ссылками, но уже второй апп из идекса вылетели только 10 страниц, пока вылетят все можно состарится ((((( посоветуйте люди добрые(((((
Известная проблема, пробуй Sh404sef
Нужен файл robots.txt, как минимум что бы ПС не индексировали админку. Им же и вашу проблему решить можно.
Вот хороший урок на эту тему http://www.zvirec.com/view_post.php?id=74
а если взять все эти ссылки и в robots.txt запретить к индексации?
а если взять все эти ссылки и в robots.txt запретить к индексации?
а если на сайте 1000 страниц ? :-)
все просто:
1. настройте правильно роботс
2. в настройках сайта в админке все галочки в разделе "Установки Search Engine Optimization" все галочки поставьте в "да"
3. дубли страниц через я.вебмастер удалите
MadTomas добавил 09.11.2010 в 19:08
Вот хороший урок на эту тему http://www.zvirec.com/view_post.php?id=74
а тут не оптимальный роботс для джумлы ... есть гораздо лучше ))
MadTomas
Но все таки на крайней случай если в роботсе пропиать это как то поможет и не усугубит ситуацию с нормальными страницами?
Хоть убей не вижу где в вебмастере удалять дубли... помогли плиз (((
Не сгубит ...
Но лучше порыться в нете и найти "robots.txt для joomla" :-) и htaccess правильно напсать
удалить дубли : http://webmaster.yandex.ru/delurl.xml
Спасибо большое!!!!