- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Кстати, всегда интересовал этот вопрос. Если страницы есть в базе Яндекса (то есть робот их съел), а в индексе нет (бан), то при переносе контента на новый домен со старого его удалять? Не будет ли Яндекс считать это за дублированный конент?
А то я всегда так делаю. Если забанили домен, то я полностью снимаю с него контент и переношу его на новый домен. Если оставить один и тот же контент на двух доменах (старом забаненном и новом, который ещё не индексировался), это никак не отразится на индексации последнего?
А то начитался страшилок о скрытом индексе Яндекса, аж страшно стало.
давайте Войну и Мир зальем на какой-нить домен и пусть яндекс забанит его раз и навсегда!!!
хотел бы высказать возможно тупое предположение :)
Из того, что прочитал замечено, что банятся пачками сайты одного автора. т.е это как бы странно. Не может ли быть дело в том, что например с одного ip постоянно проверяется индексация одной и той-же группы сайтов?
Или скажем добавление кучи сатов с одного ip через addurl
Думаю мощностей бы не хватило такую проверку устроить😆
Они и так по одной страничке (многих сайтов) в индексе держат для экономии ресурсов:)
Скоро вообще только народовские в индексе будут)
почему?
то что лог действий по ip ведется, это я думаю очевидно, а если за месяц скажем было добалено с десяток хотябы сайтов, неужели они могут быть качественными?
тут после этого сразу проверяется, что они на вп и т.д что было описано выше, и вывод о том, что сделана пачка гс :)
отписал в суппорт яндекса гневное письмо о вылете блога с авторским контентом - ответили мол новый алгоритм не счел ваш блог интересным
в глаз бы этому алгоритму!
я в шоке - прога решает интересный сайт или нет :(
Кстати, кажется перегрелся АГС... уже больше суток среди сапо-площадок не добавляется жертв синдрома "10 страниц". До того - в течении двух недель, каждый день выбивало по 30-50 площадок на тысячу.
а у меня сегодня, после недельного перерыва, под фильтр залетели еще два сайта - псевдо СДЛ. Но одном осталось 10, на другом 7 страниц из нескольких сотен.
Уник (качественный и обработанный скан), ВП, шаблон переделан. Счетчиков не ставил, ссылки продавал 3-1-1. Проверил уникальность после вылета - все ОК.
Яша выхухоль блин...
почему?
то что лог действий по ip ведется, это я думаю очевидно, а если за месяц скажем было добалено с десяток хотябы сайтов, неужели они могут быть качественными?
тут после этого сразу проверяется, что они на вп и т.д что было описано выше, и вывод о том, что сделана пачка гс :)
Немного не понятно "то что лог действий по ip ведется" каких именно действий, если в вебмастере, то скорее всего так и есть.
Под "доавлено" имеется ввиду добавленеи в адурл-ку? если да то действительно думаю ней пользоватся не стоит, а если пользоватся то очень осторожно, так же как и вебмастером яндекса😆
Немного не понятно "то что лог действий по ip ведется" каких именно действий, если в вебмастере, то скорее всего так и есть.
Под "доавлено" имеется ввиду добавленеи в адурл-ку? если да то действительно думаю ней пользоватся не стоит, а если пользоватся то очень осторожно, так же как и вебмастером яндекса😆
ну вот посмотрите: у человека например банится 50 сайтов, созданных в разное время. Если это были не саттелиты, то возможно следующее:
-сайты банятся просто рандомно по неким критериям, но тогда при таком количестве банов, тут бы наверное было написано гораздо больше, чем 60 страниц одной темы форума, так как значительная часть интернеты была забанена, так как у каждого должно выбмастера массово сайты должны были забанены. А этого нет, значит, как-то же вычисляются пачки гс, созданные одним человеком, так что вместо одного банятся сразу все а другое объяснение как-то сложно найти
ну вот посмотрите: у человека например банится 50 сайтов, созданных в разное время. Если это были не саттелиты, то
это были ГС или УГ.
Сколько раз говорить, что одному человеку не под силу сделать и поддерживать кучу СДЛ. Всё, что меряется десятками или сотнями НЕ СДЛ.
А СДЛ в 5 секунд восстанавливается в индексе после письма Платонам.