- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Может, дело не в лиексе, а в множестве исходящих ссылок. Новый сайт, малое отношение чистого контента к исходящим ссылкам - и ффсе.
Попробуйте на оставшемся сайте создать ту же картину, но вручную. Наверняка тоже будет бан.
ГС и без того может вылететь в любой ап..
но и быстрый прирост исходящих ссылок сказался тоже.
Ну как всегда, liex виноват, биржи виноваты, одни только дилетанты всегда правы :) Линейку небось вчера проспали пока свой ГС делали? :)
ad astra, а вы думаете, роботы читают и осмысливают контент?
а вы думаете нет? :D
ad astra, а вы думаете, роботы читают и осмысливают контент?
Они как собаки, все понимают, но сказать не могут. А для того чтобы сказать что они думают, уже есть Платоны 😂
Версии какие-то все дикие.
Поражает другое, в разных разделах кричат о вылете сайтов из индекса, но причины почему-то разные называют, да еще с такой уверенностью, прям Колумбы все, млин.
Попытка поставить сайты на самотек (читай, автомат) последнее время не приводит к успеху. Лучше делать СДЛ и размещать статьи вручную, тогда и на ПС не будет повода грешить.
ad astra, а вы думаете, роботы читают и осмысливают контент?
Алгоритм Яндекса давно уже и очень хорошо понимает морфологию русского языка. Поэтому не удивительно, что генерированный говноконтент уходит в даун.
ТС дайте сайт....без него разговор туфта...
Так тем кто просил дать домен я дал, статьи убрал только уже.
Теперь буду продолжать эксперимент, пока только нужно 3 ГС, один без ничего, второй в два раза больше с кучей ссылок, третий опять в лиекс. Все на народе. Еще идеи какие?
Это не проблема вообще. Нужно просто приводить готовый текст к правилам русского языка.
Цель эксперемента найти причину, что это было:
* палево загрузчика статей лиекса на народ?
* 250 ссылок за один ап?
* статьи?
* страница с содержанием?
Попробуйте на оставшемся сайте создать ту же картину, но вручную. Наверняка тоже будет бан.
Может и в ссылках, сайт как я сказал не совсем новый, с апреля. На оставшемся не получится протестировать, по крайней мере в ближайшие два дня.
Сейчас в принципе не важно что лучше или хуже, таких тем тысячи, эта тема не про это.
У меня есть сайты которые в лиексе и не вылетели ни куда, только вот на них статьи ставились медленно, и отбирались.
Здесь я поднимаю вопрос о качестве оптимизаторских статей, и стараюсь выявить зону риска, то есть те сайты на которые статьи ставить не желательно. Например сейчас на народе ни одной статьи бы там не купил, да и на тех сайтах которые быстро размещают много статей тоже, но тут уже сложнее контролировать.
Алгоритм Яндекса давно уже и очень хорошо понимает морфологию русского языка. Поэтому не удивительно, что генерированный говноконтент уходит в даун.
возможно и понимает, но только один и очень ленивый бот который шарится преимущественно по изначально склонным к спаму нишам ну и по любимому яшкой народу, т.к. обычная марковка у меня живет уже больше полугода на сателлитах ком тематики...а так хочется верить что наши боты в состоянии оценивать читабельность, дубли, переведенные тексты, уг рерайты и т.п.
кстати я мож что то пропустил, с каких пор сайты на фри (именно фрихосты, а не блогохостинги) не из яки стали передавать ссылочное или тиц?