- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте...
хочу спросить совета.
Проблема такая, количество проиндексированных страниц нашего сайта (www.maxico.ru), стало уменьшаться, с 3000 до 26 на сегодняшний момент.
Яндекс находит какието странные ссылки
www.maxico.ru/index.phtml?order=11336
www.maxico.ru/index.phtml?razdel=1&tovarID=9980
www.maxico.ru/index.phtml?razdel=1&tovarID=6654
которых вообще нет на нашем сайте, причем эти ссылки бессмысленны так как ведут на главную страницу...
тоесть таких ссылок у нас быть не может впринципе, так откуда же они появились у яндекса?
может кто подскажет что делать?
Спасибо!
Где-то Яндекс все-таки нашел ссылки на такие страницы.
Если страниц таких нет, то скрипт должен выдавать 404 ошибку, тогда Яндекс сам их из базы удалит.
Понимаешь такие страницы они есть, но нет таких ссылок!!
вот смотри у меня например страница товара
http://www.maxico.ru/details.php?tovarID=123
а если я напишу
http://www.maxico.ru/details.php?tovarID=123&a=5
то я просто передам скрипту ещё один параметр a, но так как он его не использует то ничего не изменится...
вот я и немогу понять где яндекс взял такие ссылки?
ну их просто нет, сайт делал я и точно на 100% знаю что там нет таких ссылок!
Тогда они внешние.
Кто-то сослался на ваш сайт именно так
а что тогда делать?:(
как убедить яндекс что мы не создаём поисковый спам?
и как сделать чтобы у нас снова было 3000 проиндексированных документов с сайта...
почему робот не ходит по сайту и сам не находит правильные ссылки?
Biker,
Просмотри в яндексе весь свой сайт на предмет проиндексированности, пометь все страницы, которые ты не хочешь индексировать, запрети их индексацию через файл robots.txt.
Второй вариант - через .htaccess пропиши в этом файле, чтоб выдавал 404 при запросе таких страниц.
Либо в самом своем скрипте пропиши возвращение 404 при запросе таких страниц.
А откуда Яндекс взял такие ссылки - не знаю.. Может на стадии проектирования они у тебя всё-таки имели такой вид и Яндекс их скушал.. Ну в любом случае, если они тебе не нужны, то избавляйся от них, предоленными выше способами..
Biker, думаю, надо для начала ликвидировать PHPSESSID для всех незалогинившихся посетителей. Иначе это замусоривает поисковики. Обсуждалось сто раз.
Я уже закрыт от индексации нежелательные страницы.
Сессии дл роботов отключены
Год назад была старая версия сайта на которой возможно были такие ссылки. я точно непомно, но она была год назад.
И 3 месяца назад было 3000 документов, где-то месяц назад их стало 300 щас 26.
А рамблер показывает нас стабильно - 2000 документов или более.
Kost, да это в самом начале я сделал. Для всех роботов сессии выключены!
Biker теперь остается ждать.
Можете попробовать скормить Яндексу через подсветку некоторое количество уже известных ему и сейчас закрытых ссылок.
Не ждите что через неделю в базе снова будет 3000 страниц.
Увы, за ошибки приходится платить.
Но в вашем случае это вопрос только времени.
И количество приндексированных будет нарастать постепенно, а не все сразу.
Т.е. сейчас, скорее всего, на вашем сайте ограничение на индексацию из-за засорения базы дубликатами.
Плюс, не исключено, что у Яндекса выпал какой кластер, где есть еще немного страниц с Вашего сайта.
В течении какого времени в базе 26 страниц?
Как с зеркалами?
Да и 404 - не лучшее решение.
Раз роботы приползают, значит есть ссылки.
А по ссылкам-то и люди ходят ;).
Лучше закрывать в robots.txt (предпочтительно!) или на крайний случай всю страницу в noindex.
Тестирование мобильных приложений и сайтов (/ru/forum/1032925) https://www.facebook.com/ostmaster (https://www.facebook.com/ostmaster)
Я уже закрыт от индексации нежелательные страницы.
Сессии дл роботов отключены
Год назад была старая версия сайта на которой возможно были такие ссылки. я точно непомно, но она была год назад.
И в списке проиндексированных у Яндекса есть несуществующие ссылки? Возможно, что он их помнит с прошлой версии, у поисковиков память долгая, убедился сам - может помнить и год. Если их не слишком много, может, постепенно пропустить через removeurl? Так все же быстрее...