- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хм, сайт как раз для людей, т.е. для потенциальных покупателей, для нормальной конверсии стараюсь делать все максимально удобно и понятно пользователям. Контент естественно уникальный, правда в силу специфики (сайт шароварный) его не много...
А все таки, по теме вопроса (когда стоит ожидать снятия фильтра и можно ли чего сделать) никто ничего не посоветует? :-)
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.
По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".
Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?
Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?
Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.
* пару месяцев назад покупал ссылки с нетематических сайтов на САПе (пара жирных и много мелких). После этого сайт вышел в топ 10 по некоторым запросом, повисел там пару дней и резко упал и так и не вернулся на нормальные позиции.
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.
Я читал, что обычно через некоторое время после этого (довольно быстро) сайт обычно возвращается на прежние позиции, это так?
Вообще, со временем этот фильтр снимется? Через сколько (месяц, год)?
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.
Из-за сапы вряд ли.. Хотя еще могло плохо сыграть качество самих ссылок, если их просто дублировали, то минимум - никакого результата, а максимум - такие неприятности.
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.
По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".
Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?
Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?
Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.
Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...
Качество ссылок тогда было ужасное
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.
По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".
Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?
Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?
Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.
Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...
Я читал, что обычно через некоторое время после этого (довольно быстро) сайт обычно возвращается на прежние позиции, это так?
ну вообще по моему опыту фильтр за ссылки не быстро уходит. :(
Вообще, со временем этот фильтр снимется? Через сколько (месяц, год)?
большой вопрос. Думаю, многое зависит от проводимой работы. У меня один сайт именно после сапы (менее 10 ссылок, кач-во ссылок нормальное) улетел. Летом очень на непродолжительное время вернулся и снова в фильтр. На днях на 1 день снова вылез и снова под фильтр. Вот и считай. С другой стороны, над этим сайтом работы мало идет.
Есть другой сайт, более предпочтительный на данный момент. В фильтр ушел 25 октября. Ровно через месяц на 2 дня вышел и снова в зад. Работа над сайтом идет полным ходом, покупались хорошие тематические ссылки.
Из-за сапы вряд ли.. Хотя еще могло плохо сыграть качество самих ссылок, если их просто дублировали, то минимум - никакого результата, а максимум - такие неприятности.
из-за сапы запросто.
Качество ссылок тогда было ужасное
вот у меня кач-во ссылок было нормальным, проверял по всякому. Улетело тогда именно из-за сапы. Правда есть нюанс - над тем сайтов долго не работали, тут решили поставить всего несколько ссылок, похоже это было слишком неествественно (хотя ПР ссылок 3-5).