- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Что лучше для дальнейшей кармы сайта, пересмотр беков естественным путем - гугл сам наткнется или пересмотр после того как вебмастер обратиться к гуглу с просьбой о пересмотре??
Заблуждение многих, что G всегда заходит на все страницы и отправляет запрос к ним. Сам по себе он может не добраться до многих страниц ,т.к. они могут быть пессимизированы ,а в Вашем случаи они уже пессимизированы. Почему Google обязан тратить вычислительные мощности на сверку постоянно всех страниц ,если они были некачественные и имели низкие показатели уровня траста по отношению к анализу ранжирования ? Просто так ? Нет этого не происходит.
Вы даже можете заметить, что если скопировать откуда-нибудь статью и разместить у себя, то сначала она проиндексируется быстро, но потом после наложения фильтра о неуникальности данных она улетает и на нее редко приходят роботы ( реже,чем обычно в силу опять же ряда факторов).
Думаю, что ответил на вопрос понятным образом.
работал над поисковыми алгоритмами и буду работать.
Мэтт, ты ли? :)
Работаю над выводом одного сайта. Все процедуры прохожу и проверяю сам лично. Удачных примеров не имею т.к. сайт не в таком запущеном состоянии, как у многих, но под фильтром из-за ряда ошибок в том числе из-за манипуляции с ранжированием.
Откуда знаю, как что устроено. Ответ - работал над поисковыми алгоритмами и буду работать.
Если у вас сайт не в запущеном состоянии, зачем понадобились монипуляции с ранжированием=покупки ссылок))) Видь и вышесказанного вами можно сделать вывод, все хорошие сайты попадают в топ.
Если вы работаете над поисковыми алгоритмами и знаете как все устроено. Как можно было попасть сделать ошибки и получить фильтр?
Соответственно у попадание в топ нет взаимосвязи между уникальным наполнением и линками. Есть только паралель, уникальные статьи должны быть на хорошем сайте, также как и на хороший сайт должны вести "хорошие" ссылки, но одно от другого не зависит и не связано между собой.
Абсолютно верно + хорошии пример для закрепления Вашего понимания.
Пусть будет ресурс Y и у него много денег ,а именно столько ,чтобы купить только очень качественные ссылки с высоким параметром траста, но у ресурса Y нету контента только 1 страница (заглушка и некоторые параметры Title и описание страницы 200 символов).
Пусть даже будут закуплены очень грамотно ссылки и с текстом и другими параметрами, но ресурс Y не заимет стабильно топ ранжирования лишь по причинам того, что его персональная уникализация данных краине мала (точнее критична).
Это служит не только защитои от тех случаев, когда допустим кто-то захотел резко с кучеи денег взлететь в топ, но и протекциеи для тех ресурсов, которые работают давно и стараются набирать качественный контент.
Заблуждение многих, что G всегда заходит на все страницы и отправляет запрос к ним. Сам по себе он может не добраться до многих страниц ,т.к. они могут быть пессимизированы ,а в Вашем случаи они уже пессимизированы. Почему Google обязан тратить вычислительные мощности на сверку постоянно всех страниц ,если они были некачественные и имели низкие показатели уровня траста по отношению к анализу ранжирования ? Просто так ? Нет этого не происходит.
Вы даже можете заметить, что если скопировать откуда-нибудь статью и разместить у себя, то сначала она проиндексируется быстро, но потом после наложения фильтра о неуникальности данных она улетает и на нее редко приходят роботы ( реже,чем обычно в силу опять же ряда факторов).
Думаю, что ответил на вопрос понятным образом.
Вы очень невнимательный читатель. Я говорю про отправку на пинг всех сайтов которые есть в вм, тоесть позову гугл в гости на эти сайты.... Это так называемая ускоренная индексация. Гугл смотрит все и всегда толко в зависимости от доверия к сайту может дольше обновлять кеш и т.д. Проводил на писсимезированных страницах, в - 200, эксперимент, менял тайтлы, и снипет менялся в течении 24 часов, а вот кеш обновлялся полтора месяца.
Работаю над выводом одного сайта. Все процедуры прохожу и проверяю сам лично. Удачных примеров не имею т.к. сайт не в таком запущеном состоянии, как у многих, но под фильтром из-за ряда ошибок в том числе из-за манипуляции с ранжированием.
Откуда знаю, как что устроено. Ответ - работал над поисковыми алгоритмами и буду работать.
У вас такой же зафильтрованный сайт, как и у других тысяч вебмастеров. Вы такой же особенный как и все другие. Каждый вебмастер думает, что его сайт не нарушает не одно из правил Гугла. Может и так. Но гуглу насрать на вас, меня и на всех других. Захотел - зафильтровал. И если у вас будет трафик с гугла, будут десятки тысяч закладочников, это не будет означать, что вы все сделали правильно с точки зрения гугла (типа, "сайт нужен пользователям")...это будет означать только одно - у вас ПОКА нет фильтра :)
Все эти "белые" методы просто вода. Даже крупные оффлайн издания и компании с радостью покупают ссылки. И сидят в топе. Нужно быть полным идиотом, чтобы с умным видом сидеть и говорить, что гугл не видит покупные ссылки, или какой-нибудь спам на сайте и, типа, поэтому не понижает сайты.
Если у вас сайт не в запущеном состоянии, зачем понадобились монипуляции с ранжированием=покупки ссылок))) Видь и вышесказанного вами можно сделать вывод, все хорошие сайты попадают в топ.
Если вы работаете над поисковыми алгоритмами и знаете как все устроено. Как можно было попасть сделать ошибки и получить фильтр?
Манипуляция была с целью резкого подъема и показа данных заинтересованному лицу + использовалась в некотором роде дыра.
Дыру исправили и все пришло на свои места такое часто бывает и опять же это был осознанный риск.
---------- Post added 09-03-2013 at 00:14 ----------
Вы очень невнимательный читатель. Я говорю про отправку на пинг всех сайтов которые есть в вм, тоесть позову гугл в гости на эти сайты.... Это так называемая ускоренная индексация. Гугл смотрит все и всегда толко в зависимости от доверия к сайту может дольше обновлять кеш и т.д. Проводил на писсимезированных страницах, в - 200, эксперимент, менял тайтлы, и снипет менялся в течении 24 часов, а вот кеш обновлялся полтора месяца.
А мне всегда необходимо писать с примерами ,как для студентов ? Я прочитал так внимательно ,как мог пока писал код, потому вы должны были понять из ранего предложения, что отправка запросов до всех источников не является ускорителем того, что вам нужно. Про Кэш вообще другои разговор и кто Вам сказал сменить Title ? (За это кстать еще один фильтр приходит)
У вас такой же зафильтрованный сайт, как и у других тысяч вебмастеров. Вы такой же особенный как и все другие. Каждый вебмастер думает, что его сайт не нарушает не одно из правил Гугла. Может и так. Но гуглу насрать на вас, меня и на всех других. Захотел - зафильтровал. И если у вас будет трафик с гугла, будут десятки тысяч закладочников, это не будет означать, что вы все сделали правильно с точки зрения гугла (типа, "сайт нужен пользователям")...это будет означать только одно - у вас ПОКА нет фильтра :)
Все эти "белые" методы просто вода. Даже крупные оффлайн издания и компании с радостью покупают ссылки. И сидят в топе. Нужно быть полным идиотом, чтобы с умным видом сидеть и говорить, что гугл не видит покупные ссылки, или какой-нибудь спам на сайте и, типа, поэтому не понижает сайты.
А вы батенька приверженности теории рандомности алгоритмов. Не важно что и как ты делаешь в топе гугла или нет все зависит от великого рандома. Это уже прям религия, не важно что я сделаю все зависит от воли господа)))
---------- Добавлено 08.03.2013 в 22:17 ----------
Манипуляция была с целью резкого подъема и показа данных заинтересованному лицу + использовалась в некотором роде дыра.
Дыру исправили и все пришло на свои места такое часто бывает и опять же это был осознанный риск.
---------- Post added 09-03-2013 at 00:14 ----------
А мне всегда необходимо писать с примерами ,как для студентов ? Я прочитал так внимательно ,как мог пока писал код, потому вы должны были понять из ранего предложения, что отправка запросов до всех источников не является ускорителем того, что вам нужно. Про Кэш вообще другои разговор и кто Вам сказал сменить Title ? (За это кстать еще один фильтр приходит)
Смена тайтла это один из методов изменение снипета в выдачи, и за смену татла фильтра нет. Я его менял бо нужно было изменить снипет на более привлекательный.
Расцветёт матушка Россия
Смена тайтла это один из методов изменение снипета в выдачи, и за смену татла фильтра нет. Я его менял бо нужно было изменить снипет на более привлекательный.
Это вы так думаете, но это вовсе не так. Фильтры бывают разные и вариаций очень много.
Пример. Как иногда люди пытаются обмануть ранжирование. Создают страницы с хорошей информацией выводят их в топ и в определенное время меняют Title (Допустим на секретутки из Сан-Франциско) и закрывают от робота и страница задерживается чуть дольше времени в поиске.
Теперь подумаете внимательно, а где вероятность того, что ваша смена была не заменой данных ,как это делают некоторые спаммеры ?
Вам либо повезло с теми страницами и они были действительно хороши, но в целом заменять Title - это не есть правильно.