- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая проблема, есть сайт на DLE, в индексе яши присутствуют все страницы реально находящиеся на сайте и не закрыте от индексации, в гугле же их в два раза больше. Откуда, как и почему? Причем всю выдачу он посмотреть не дает, ну вы понимаете о чем я :idea:
Пользуясь случаем, также хотелось бы узнать, как избавиться от страниц /feed/ на WP в гугле. Яндекс хорошо воспринимает их закрытие в роботсе, гугл же упорно игнорирует, в результате чего приходится каждый раз их удалять вручную в вебмастере. Притом, что даже после удаления количество страниц в два раза большее в индексе Г остается, хотя в выдаче их нет. Как бороться с этим?
Проблема в том, что у вас сайт на DLE.
Яндекс выплевывает все ненужные страницы, а гугл оставляет в индексе даже те, на которых висит стандартная отписка "Доступ запрещен" а-ля 404
Проблема в том, что у вас сайт на DLE.
Что же в этом такого проблемного?
Единственная "проблема" в том, что Гуглу зачастую плевать, что написано в robots.txt, независимо от того - на DLE сайт или на простом HTML/CSS
Что же в этом такого проблемного?
Единственная "проблема" в том, что Гуглу зачастую плевать, что написано в robots.txt, независимо от того - на DLE сайт или на простом HTML/CSS
DLE ни разу не сео двиг. ЕГо надо допиливать, что бы не было ГСа
А вы смотрели, что гугл пускает в основную выдачу, а что оставляет в соплях ?
А вы смотрели, что гугл пускает в основную выдачу, а что оставляет в соплях ?
Так в том и проблема, что не дает. На 15 странице в выдаче, показывает что их 19 с соплями, жмешь кнопку - следующая и резко оказывается что страниц всего 16.
EgorViking, в чем проблема-то ?
гляньте по http://www.cy-pr.com/ (регистрация для этого обязательна)
---------- Добавлено 02.08.2012 в 09:55 ----------
Или rds баром, так же показывает %выдачи в основном индексе
EgorViking, в чем проблема-то ?
гляньте по http://www.cy-pr.com/ (регистрация для этого обязательна)
---------- Добавлено 02.08.2012 в 09:55 ----------
Или rds баром, так же показывает %выдачи в основном индексе
70%, только я не очень понимаю, как мне это поможет увидеть и убрать лишние урл из выдачи :)
EgorViking, из выдачи гугла роботсом и ручками в вебмастере гугла
EgorViking, из выдачи гугла роботсом и ручками в вебмастере гугла
Все, доперло. В разделе - Оптимизация HTML в вебмастере нашел проблему, категории продублировались по разным адресам оказывается.