- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
А опыт Google все таки сильно сказывается... он вон всю Европу прошел, опыт занятия первого места по стране у него есть
Кто только всю Европу не прошел до Гугля, а с Россией потом не вышло. :)
Дико извиняюсь за оффтоп, но мое мнение, что если Я сам не продастся буржуинам никуда мы от него не денемся. Хотя бы потому, что Ru-нет гораздо меньше WWW-нета.
Я буду писать везде и всегда до тех пор...
Серчь - это начало или завершение?
Серчь - это начало или завершение?
Серчь- это спинной мозг яндекса, здесь, в домашний условиях на него давить легче...😆
-Бан ни за что, фильтры от нехватки мощностей
Попали под АГС за дублирование контента, имхо.
У вас на страницах доменов уникального текста 150-200 символов, из которых 50-100 русский текст.
Допустим что Яндекс оставил бы ваш сайт в выдаче, АГС его не затронул, по фильтру бы сайт прошёл. Представьте себе в каких огромных масштабах можно было бы ГС генерировать...
Согласен с Pol Fransheski, что или такие страницы нужно в роботс прописать, или уник контента добавить.
Вы говорите что смотрите на сайт с позиции обычного пользователя. Пользователю не интересна индексация сайта, ему важно содержимое. А если вы сделали сайт, следите за его индексированием в пс и прочим, то тут, как мне кажется, вы уже должно относится к нему как вебмастер. Если же нет, то доверьте работу вебмастеру, а не пользователю.
С другой стороны недостаток фильтра в том, что он вообще исключает страницы из индекса, даже не страницы а почти или весь сайт. Хотя можно было бы отодвинуть такие страницы/сайты на xx страниц в выдаче, а вес бэков со страниц сайта попавших под фильтр просто анулировать. Но это дополнительная нагрузка Яшке, как уже заметили... это уж слишком спорная тема.
яндекс фильтранул без оснований и не исправляет ошибку- это говорит о том, что он начихал на пользователей
Яндекс не обязан любить ВСЕХ, выдачу он делает ту, которая принесет прибыль - это коммерция, так же как и у вас - продажа "портфолио", и теперь, когда ВАШЕЙ комерции нанесен ущерб, вы готовы порвать яндекс.
Ваша "технология" смертельна для яндекса, как верно заметил WhiteSEOMagic, и не вы делаете погоду, так что представители яндекса вряд ли будут извиняться
Представьте себе в каких огромных масштабах можно было бы ГС генерировать...
Я буду писать везде и всегда до тех пор, пока мое портфолио доменов не выйдет из-под незаслуженного фильтра
Проще потратить эти усилия на создание нескольких списков доменов. К слову, если бы у вас было меньше служебной инфы (повторяющихся слов), то % полезной (уникальной инфы) был бы выше на странице.
Несколько сотен сайтов, которые были под АГС, отправились полностью в БАН.
Все сайты перенес на новые домены, со старых редирект поставил - уже все в индексе и сапе))).
😂
Напугали своим АГСом ))
Уже на всякий случай домены для других сайтов приготовил, пускай "отлеживаются".
В сети на сегодняшний день находится очень много мусорных сайтов с дублированным контентом, предназначенных для заработка на различных биржах статей, ссылок и для продвижения так называемых СДЛ (сайтов для людей).
Интересно наблюдать, как борются с этим мусором Яндекс и Гуголь.
Гуголь индексирует и держит в индексе практически все страницы всех сайтов. Просто у Гугла два индекса и весь мусор он держит в дополнительном индексе (саплиментал). Причём часть страниц одного сайта могут быть в основном индексе, а другая часть в дополнительном. И это правильно, потому что нет идеальных сайтов. На каждом сайте есть страницы с дублированным (мусорным) контентом.
Апдейт выдачи у Гугла происходит чуть ли не каждый день. Вычислительные мощности Гугла позволяют ему это делать.
У Яндекса апдейт бывает через два, три дня, а то и через неделю. Вычислительные мощности Яндекса намного ниже, чем у Гугла.
Поэтому видимо Яндекс пошёл путём создания и наложения на сайты различных фильтров (АГС17, АГС30), в результате от сайта остаются рожки да ножки – от 1 до 10 страниц, которые вскоре тоже исчезнут (если вовремя не послать прошение яндексоидам) и сайт будет запрещён Яндексом к индексации (бан). Как говориться: баба с возу – кобыле легче тоже самое, что сайт в бан – Яндексу проще. Не смотря на то, что на сайте могут находиться и страницы с уникальной информацией – всё в бан. Естественно это не может не сказаться на качестве информации в поисковой выдаче Яндекса.
Следующим фильтром будет видимо АГС40, затем «Смерч», затем “Град”.
И не будет зарастать народная тропа к яндексоидам с челобитными воскресить невинно убиенные СДЛ.
zub32 - мощно задвинул
Что мы делаем: по ряду запросов мы мониторим выдачу других поисковых машин, всех, кто хоть как-то ищет по-русски, включая все версии самого Яндекса - рабочую версию и внутренние, экспериментальные (у Яндекса много версий). И складываем все результаты в один котел. Если какой-то сайт присутствует в этом «котле», если он там имеет достаточно хорошие оценки, и при этом отсутствует в Яндексе, мы начинаем разбираться – почему. Причины могут быть разные. Чаще всего причина банальна – плохо отранжировался. Следующая причина – этот документ есть у нас в базе, но в выдачу не попал: так обычно бывает, если мы не сделали нужное синомическое расширение – человек искал по какому-то слову, а в базе был его синоним, искал «Ленинка», а в базе было «Библиотека Ленина».
Интеллектуалы ^_^ Если другие системы начнут мониторить яндекс, рунет облысеет и засрёццо окончательно.
... ужаснулся! почти все сайты ушли в бан или ещё кудато 😡
понимаю по несколько сайтов с бана вытягивать... но эт капец какойто...