- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
забанен в гугле, Ваш фильтр это скорее всего Вы сами точнее строчка в коде страниц
<meta name="robots" content="nofollow" />
:)
Добавлю. Неоднократно писали что многие СМС неправильно работают с кирилическими знаками в урл + гугл не рекомендует использовать символ нижнего подчеркивания в урл страниц.
А сайт хороший если не псевдо магазин конечно.
<meta name="robots" content="nofollow" />
поменял на
<meta name="robots" content="all" />
Запрос на пересмотр отправил.
Спасибо, что заметили.
Но вряд ли дело именно в этом, т.к. nofollow был на сайте с самого начала. Что касается символов в url, тоже вряд ли. Да и все страницы сайта в индексе гугла находятся.
В чём ещё может быть причина?
А почему вы решили что под фильтром? Ваш сайт прекрасно индексируется, а продвижение в Гугл совсем другой разговор. Можно начать с создания карты сайта и добавления ее в панель для вебмастеров Гугла.
А вот ваш файл robots.txt
User-agent: *
Disallow: /404
Disallow: /default/
Disallow: /%D0%BA%D1%83%D0%BF%D0%B8%D1%82%D1%8C
Disallow: /%D0%BF%D0%BE%D0%B7%D0%B2%D0%BE%D0%BD%D0%B8%D1%82%D1%8C
он что означает?
К сожалению, это приговор. Покупать "вечные ссылки" с Liex и прочих GGL - это, согласно новой концепции Гугла, верный способ навечно пребывать в НИГДЕ.
Не верьте биржам вечных ссылок! Они врут, что их продукты помогают подняться сайтам. На самом деле это лишь до определенного времени - и после него сайт вываливается в НИКУДА, благодаря биржам вечных ссылок.
Нет вернее способа угробить сайт, чем покупать на него ссылки в GGL или LIEX (это одна контора).
По-моему тут вы явно перегнули палку. Понятно, что не стоит покупать исключительно на этих биржах и биржах вообще. Но то, что это "приговор", звучит довольно инновационно.
А почему вы решили что под фильтром? Ваш сайт прекрасно индексируется, а продвижение в Гугл совсем другой разговор. Можно начать с создания карты сайта и добавления ее в панель для вебмастеров Гугла.
А вот ваш файл robots.txt
User-agent: *
Disallow: /404
Disallow: /default/
Disallow: /%D0%BA%D1%83%D0%BF%D0%B8%D1%82%D1%8C
Disallow: /%D0%BF%D0%BE%D0%B7%D0%B2%D0%BE%D0%BD%D0%B8%D1%82%D1%8C
он что означает?
Повторяюсь:
Решил, что сайт под фильтром потому что раньше он был в топе, а сейчас - нет. На графике тоже всё видно. Ещё одна вещь указывает на мои предположения - описана выше.
---------- Добавлено 29.12.2012 в 11:21 ----------
По роботс.тхт комментировать не буду - там ничего непонятного или сверхъестественного нет. А sitemap.xml, как вы сами видите, есть.
забанен в гугле, Запросы на повторную проверку
вот интересно, зачем вообще давать этот совет? Из 1 миллиона таких запросов хоть один получил не отписку робота, а реальный ответ с реальным изменением ситуации?
Меняйте контент на сайте, дизайн + домен, возможно выйдет из фильтра
В файле robots.txt должен быть прописан путь к xml карте сайта, а так ни чего особенного в нем нет?
По вашему получается что все сайты которые не в топе под фильтром?
На вопрос, прозвучавший выше, отвечу: сайт - витрина. Не псевдо-, а настоящая. Успешно функционируем, продаём. На главной есть и телефоны, есть карта проезда, т.е., всё реально. Также организация значится в гугл.адресах
Александр Соловьев, ого! после проделанной работы и достижении таких показателей, поменять всё? И начать сначала? Неразумно как-то.
Gennadi, сайтмап указан в панели вебмастера - этого гуглу не хватит?
Отвечаю на ваш вопрос: по-моему нет. А по-вашему? ИМХО, глупость.
Но по-моему, сайты, находившиеся в топе с количеством переходов 100 в день с гугла, которые были понижены до 100-й страницы и количеством переходов 10, находятся под фильтром. А по-вашему как?
Прошу ответить людей знающих. Как назначить нулевой вес входящим ссылкам?
---------- Добавлено 29.12.2012 в 12:04 ----------
На другом сайте той же тематики нашёл ворованый текст с моей главной. Но лишь кусочек.
---------- Добавлено 29.12.2012 в 12:42 ----------
Я уже приводил пример своего второго сайта, над которым никаких действий давно не производилось. Он находится на 2 странице. По этому же запросу мой сайт на 50 странице! По другому запросу нет и на 50 странице. А раньше было 1 место.
---------- Добавлено 29.12.2012 в 12:47 ----------
Если искать в гугле по тексту заголовка главной, то находятся сначала второстепенные страницы сайта, потом - страницы с других сайтов и лишь затем главная страница моего сайта с полным совпадением поискового запроса и тайтла.
---------- Добавлено 29.12.2012 в 13:20 ----------
Кстати, в mail.ru если написать ключ + регион, сайт на первых строчках.
Покупать "вечные ссылки" с Liex и прочих GGL - это, согласно новой концепции Гугла, верный способ навечно пребывать в НИГДЕ.
А можно немного подробней? Отчего были сделаны такие выводы на счет GGL ?
И о какой именно концепции гугла идет речь?
GGL или LIEX (это одна контора)
Это абсолютно разные "конторы"