- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте уважаемые форумчане. Один из моих сайтов http://kukry.biz/ около месяца назад полностью выпал из индекса. Теперь в индексе всего несколько страничек, а всего их более 100. Выпали и уникальные и неуникальные страницы. Продаю по 0-3 ссылки в сапе. Я заметил одну вещь: главная находиться в индексе как с www http://yandex.ru/yandsearch?text=rhost%3D%22biz.kukry.*%22|rhost%3D%22biz.kukry.www.*%22&pag=u
так и без www http://yandex.ru/yandsearch?text=rhost%3D%22biz.kukry%22|rhost%3D%22biz.kukry.*%22&pag=u
Может ли в этом быть причина? Подскажите пожалуйста что делать, если нужно что-то прописать в robots.txt?
Сейчас там прописано:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Если что-то нужно прописать, то пожалуйста напишите полностью что должен содержать robots.txt.
Всем огромное спасибо за помощь!!!!:idea:
неуник контент,
Много безинформационных страниц
неуник контент,
Много безинформационных страниц
тоесть неуникальный контент сначала попал в индекс, а потом после его сверки/проверки был выкинут?
Яндекс с вообше озверел. каждый ап выбрасывает сайты
Яндекс с вообше озверел. каждый ап выбрасывает сайты
Борется не с сапой, а с сайтами, которые продают ссылки с помощью сапы. И скорее всего на сайте ТС выпали именно страницы с саповскими ссылками ;).
Alexby добавил 29.11.2008 в 20:47
Яндекс с вообше озверел. каждый ап выбрасывает сайты
Не только каждый ап, но и между апами тоже бывает.
Alexby, А как бороться? Не продавать ссылки в сапе? или умеренно пойдёт)), хотя у ТС и так мало продовалось.
Alexby, А как бороться? Не продавать ссылки в сапе? или умеренно пойдёт)), хотя у ТС и так мало продовалось.
мало то мало, но надо еще менять места расположения ссылок. Хоть даже 2-3 ссылки, но если они в одном месте на всех страницах то это подозрительно. Я думаю у меня подействовало 2 фактора:
выкинуло неуник
выкинуло страницы с поисковым спамом (сапой)
☝вот так блин
мало то мало, но надо еще менять места расположения ссылок. Хоть даже 2-3 ссылки, но если они в одном месте на всех страницах то это подозрительно. Я думаю у меня подействовало 2 фактора:
выкинуло неуник
выкинуло страницы с поисковым спамом (сапой)
Полностью согласен, чаще всего именно так и бывает.
site-money, для каждой страницы? Ну разделить с мордой и 2ув (3ув) можно, а вот для каждой новости, нереально в DLE, у меня кстати тоже выпал сайт, был в индексе более 4 месяцев, поставил сапу и через 3 недели вылетил, после письма - бла бла спам, яндекс рулит, не превращайте Я в Г. Ну у если в каждой новости по 2 Ссылке ИМХО врятле будит щитаться поисковым спамом.