- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Народ, кто в теме, помогите советом.
Вылетело из индекса сразу 6 сайтов, 3 строительной тематики и 3 по медицине, сайтам по 2 месяца, 1.5 из которых работали на бирже сапы, продавалось ссылок 5 с морды - 3 внутр - 3 внутр.
Лежат на одном хосте, под одним и тем же хуизом, контент везде уникальный, в индексе по 250 страниц.
Добавил обратно в адурилку, пишет что типа скоро проиндексится, но мне что-то не верится...думаю что бан. Кто-нибудь сталкивался с этим? Подскажите что делать?
Поможет ли эдурилка?
Спасибо.
Закрыть буки...
Пожалуй, наиболее правильное решение в данной ситуации...
Остается лишь непонятным когда запустят находку?
То ли в ближайшее время с постоянными доработками и заплатками, то ли когда смогут правильно настроить все фильтры и алгоритмы...
Но есть предположение, что находка совершенно себя не оправдала и будет отправлена в архив до лучших времен. А в ближайшее время, скорее всего, нас ждет очередной seoшный фильтр на Магадане 2.0, который не прижился в Находке.
закрыли буки
Зато какая любопытная выдача перед самым закрытием была...
есть предположение, что находка совершенно себя не оправдала и будет отправлена в архив до лучших времен. А в ближайшее время, скорее всего, нас ждет очередной seoшный фильтр на Магадане 2.0, который не прижился в Находке.
есть также версия, что в яндексе работают фанаты шнура
Сообщение от Drakasmit Посмотреть сообщение
Сайт из индекса вылетел, а попал в индекс при предыдущем апе ужас... снова ждать
Ссылки не покупались / не продавались, ключевиками не баловался, вообще был нулевый СДЛ
Яндекс как всегда в своем репертуаре
Пиши Платону
Сайт вернулся в выдачу, сам по себе, просто выдачу колбалисо, в выдаче появилось 469 страниц 🙄
жидкий ап... +-1, много страниц со ссылками из индекса Я вылетело...
ждем развязки 🙅
Вылетело из индекса всё, кроме морды. А было 14000 страниц.
С 15 по 22 числа сайт не работал у меня.
Может быть это связано с той неделью неработы или это что то серьёзнее?
Cайт в ЯК.
В панеле вебмастера:
Дата последнего обращения робота к сайту: 25 июля 2008, 03:33
Число загруженных страниц: 170
Посоветуйте что сделать?
Вылетело из индекса всё, кроме морды. А было 14000 страниц.
С 15 по 22 числа сайт не работал у меня.
Может быть это связано с той неделью неработы или это что то серьёзнее?
Cайт в ЯК.
В панеле вебмастера:
Дата последнего обращения робота к сайту: 25 июля 2008, 03:33
Число загруженных страниц: 170
Посоветуйте что сделать?
Тут у меня тема была такая. 3 сайт улетели, только морды остались.
Причин нет для этого.
После не длительного общения с Сапортом Яшки выяснили, что :
robots.txt
в ней не хватало строки
Disallow:
что, по стандартам она должна быть, даже если пустая. За счет этого не верно обрабатывался сайт роботом.
Поставил, все вернулось через Ап.
Nicola, а до этого почему тогда были в серпе?
Тут у меня тема была такая. 3 сайт улетели, только морды остались.
Причин нет для этого.
После не длительного общения с Сапортом Яшки выяснили, что :
robots.txt
в ней не хватало строки
Disallow:
что, по стандартам она должна быть, даже если пустая. За счет этого не верно обрабатывался сайт роботом.
Поставил, все вернулось через Ап.
У меня Disallow дохрена в роботсе. Так что не поэтому.