- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хм, сайт как раз для людей, т.е. для потенциальных покупателей, для нормальной конверсии стараюсь делать все максимально удобно и понятно пользователям. Контент естественно уникальный, правда в силу специфики (сайт шароварный) его не много...
А все таки, по теме вопроса (когда стоит ожидать снятия фильтра и можно ли чего сделать) никто ничего не посоветует? :-)
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.
По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".
Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?
Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?
Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.
* пару месяцев назад покупал ссылки с нетематических сайтов на САПе (пара жирных и много мелких). После этого сайт вышел в топ 10 по некоторым запросом, повисел там пару дней и резко упал и так и не вернулся на нормальные позиции.
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.
Я читал, что обычно через некоторое время после этого (довольно быстро) сайт обычно возвращается на прежние позиции, это так?
Вообще, со временем этот фильтр снимется? Через сколько (месяц, год)?
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.
Из-за сапы вряд ли.. Хотя еще могло плохо сыграть качество самих ссылок, если их просто дублировали, то минимум - никакого результата, а максимум - такие неприятности.
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.
По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".
Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?
Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?
Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.
Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...
Качество ссылок тогда было ужасное
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.
По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".
Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?
Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?
Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.
Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...
Я читал, что обычно через некоторое время после этого (довольно быстро) сайт обычно возвращается на прежние позиции, это так?
ну вообще по моему опыту фильтр за ссылки не быстро уходит. :(
Вообще, со временем этот фильтр снимется? Через сколько (месяц, год)?
большой вопрос. Думаю, многое зависит от проводимой работы. У меня один сайт именно после сапы (менее 10 ссылок, кач-во ссылок нормальное) улетел. Летом очень на непродолжительное время вернулся и снова в фильтр. На днях на 1 день снова вылез и снова под фильтр. Вот и считай. С другой стороны, над этим сайтом работы мало идет.
Есть другой сайт, более предпочтительный на данный момент. В фильтр ушел 25 октября. Ровно через месяц на 2 дня вышел и снова в зад. Работа над сайтом идет полным ходом, покупались хорошие тематические ссылки.
Из-за сапы вряд ли.. Хотя еще могло плохо сыграть качество самих ссылок, если их просто дублировали, то минимум - никакого результата, а максимум - такие неприятности.
из-за сапы запросто.
Качество ссылок тогда было ужасное
вот у меня кач-во ссылок было нормальным, проверял по всякому. Улетело тогда именно из-за сапы. Правда есть нюанс - над тем сайтов долго не работали, тут решили поставить всего несколько ссылок, похоже это было слишком неествественно (хотя ПР ссылок 3-5).