- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну математик же не дурак. Напишет софтину и забьёт в комп. В конце концов будет понятно какие вещи влияют сильней, а какие слабей.
Да ладно? Один фиг выдача строится по какой-то одной конечной формуле, но другое дело, что эта формула будет представлена в виде функций, которые имеют свои формулы внутри. Ну это как ООП в программировании, я себе так это дело представляю)
Не братишь не всё таки просто.
Пример.
донор A (на него вело 500 ссылок) и на страницу 10 ссылок. С этой страницы стоит ссылка на сайт B (на него ведёт 100 ссылок) и на страницу 100 ссылок + 1 (А)
В итоге при любом изменении A даже при добавлении контента ,если он связан с страницей откуда ведётся ссылка ,то страница B уже меняет вес.
Теперь представь ,как это с 1 000 сайтами ? Цепочка будет настолько длинная ,что вычисления займут приличное время и то нужно всегда иметь точные входные данные.
Хорошее описание о влиянии можно прочитать в исследованиях университета Стэнфорд книги по поисковым алгоритмам и алгоритм логике.
+ для новичков инфа от яндекса
http://download.yandex.ru/company/iworld-3.pdf + приложил тут многое интересно
+ добавка
Новичкам стоит прочитать принцип работы алгоритма PageRank в нём тоже есть истина ,но как известно всем ныне PR так сильно модифицирован, что от истоков мало что осталось
Дело в том, что одна ссылка может дать сайту А плюс в продвижении, а для сайта Б минус. Причина может быть банальная - переспам анкоров.
В итоге при любом изменении A даже при добавлении контента ,если он связан с страницей откуда ведётся ссылка ,то страница B уже меняет вес.
Откуда инфа? И про какой контент идёт речь?
Я исхожу и начальной формулы PR, а там упоминаний про контент нет.
Понятное дело, что у гугла имеются какие-то коэффициенты для групп сайтов.
Но откуда ты знаешь, что контент меняет передаваемый стат. вес? Всякие переспамы и фильтры мы не учитываем.
Пы.Сы. Вообще-то спор бессмысленный, ибо идея про ниндзя и математика была моей шуткой)
Откуда инфа? И про какой контент идёт речь?
Я исхожу и начальной формулы PR, а там упоминаний про контент нет.
Понятное дело, что у гугла имеются какие-то коэффициенты для групп сайтов.
Но откуда ты знаешь, что контент меняет передаваемый стат. вес? Всякие переспамы и фильтры мы не учитываем.
Алгоритм по определению веса самой страницы (документа) отнего выросло n алгоритмов, которые привели к созданию Panda.
Пример.
Страница А имеет вес ~100кб + уникальное содержание
Страница Б имеет вес ~ 50кб + 50 символов копипаста
Страница А имеет ссылку на допустим категории (разделы) C и соответственно => A влияет на C своими факторами
Страница Б в данном случаи ,если она ведёт также на разделы влияет хуже (или не влияет вовсе и как бы не в худшую сторону, как страница неполезная для сканирования).
Некогда ,когда не было Панды единственным способом определения плохих страниц в глазах ПС - это Supplemental.
Для доказательство погугли механизм определения одинаковых документов (файлов) в сети.
Такой алгоритм используется не только для контента текста ,но и для аудио ,видео.
Если интересно посмотри TED конференцию ,где руководитель Youtube объясняет ,как они определяют фрагмент схожести.
Поэтому для ПС хорошим признаком является уникальное содержание. Т.е. всё по сути к одному ведёт.
BangaManga, всё это круто, но как влияет контент на стат. вес, ты мне так и не ответил, а точнее не сказал откуда ты это подчерпнул.
То, что сейчас PageRank уже не чистый это понятно.
Но я нигде не встречал источников, где была бы указана на прямую зависимость между контентом страницы и весом ссылки..
Тут можно только гадать.
Пример.
Страница А имеет вес ~100кб + уникальное содержание
Страница Б имеет вес ~ 50кб + 50 символов копипаста
Причём тут килобайты? Или это какой-то отстраненный пример с килобайтами?
Я говорю про стат. вес ссылок.
BangaManga, всё это круто, но как влияет контент на стат. вес, ты мне так и не ответил, а точнее не сказал откуда ты это подчерпнул.
То, что сейчас PageRank уже не чистый это понятно.
Но я нигде не встречал источников, где была бы указывали на прямую зависимость между контентом страницы и весом ссылки..
Причём тут килобайты? Или это какой-то отстраненный пример с килобайтами?
Я говорю про стат. вес ссылок.
При том при этом. Подумай и поймёшь.
Ты взял лист A4(1),где написано 1 предложение и подпись смотри страницу 15.
Или ты взял такой же лист A4(2), где имеется 50 предложений и подпись смотри страницу 15.
Даже в твоих глазах страница A4(2) будет весомее и информация имеет своё измерение веса, а потом уже делится на useful или unuseful /unique or not и т.д.
При том при этом. Подумай и поймёшь.
Ты взял лист A4(1),где написано 1 предложение и подпись смотри страницу 15.
Или ты взял такой же лист A4(2), где имеется 50 предложений и подпись смотри страницу 15.
Даже в твоих глазах страница A4(2) будет весомее и информация имеет своё измерение веса, а потом уже делится на useful или unuseful /unique or not и т.д.
Так, ход мыслей понял.
Где про это можно почитать?
И как гугл узнает что написано на первой странице? Я могу какой-нибудь водянистый бред расписать на всю страницу, а могу в паре предложений собрать всю нужную информацию.
Я могу написать: Горный велосипед со стальной рамой.
А могу ещё так написать: Прекраснейший горный велосипед с удивительно прочной стальной рамой, которая будет защищать ваши яйца от соприкосновения с твёрдым бетоном у вас под колёсами.
Выходит второй документ весомее, полезнее и ссылка с него передаёт больший вес?
---------- Добавлено 12.05.2013 в 20:32 ----------
Просто сейчас во всех поисковиках есть тенденция к уменьшению текста на страницах. Т.е. если раньше юзали портянки, то теперь для нормального ранжирования достаточно 1 абзаца на страницу категории, а иногда текст вовсе не нужен.
Сейчас ПСы требуют минимум воды и больше конкретики.
Не совсем понятно, что значит точным запросом, вы проверяете "околоссылочный + анкорный текст", это и есть точный запрос, или какой то еще ?
Да, но без кавычек для первой проверки и в кавычках для второй.
Проверить никак нельзя.
Я лучше хоть как-то буду проверять, чем надеяться на авось. Вы же когда ссылки покупаете тоже по каким-то параметрам это делаете, а не все подряд берете? Вот и проверка тоже должна осуществляться на основе какого-то фильтра.
Так, ход мыслей понял.
Где про это можно почитать?
И как гугл узнает что написано на первой странице? Я могу какой-нибудь водянистый бред расписать на всю страницу, а могу в паре предложений собрать всю нужную информацию.
Я могу написать: Горный велосипед со стальной рамой.
А могу ещё так написать: Прекраснейший горный велосипед с удивительно прочной стальной рамой, которая будет защищать ваши яйца от соприкосновения с твёрдым бетоном у вас под колёсами.
Выходит второй документ весомее, полезнее и ссылка с него передаёт больший вес?
---------- Добавлено 12.05.2013 в 20:32 ----------
Просто сейчас во всех поисковиках есть тенденция к уменьшению текста на страницах. Т.е. если раньше юзали портянки, то теперь для нормального ранжирования достаточно 1 абзаца на страницу с товаром, а иногда текст вовсе не нужен.
Сейчас ПСы требуют минимум воды и больше конкретики.
Прочитать можно в принципах работы поисковых машин и поисковых алгоритмов. Лекции Стэнфорда и MIT, книги по математическому моделированию, школа ШАД (shad.yandex.ru) думаю там это разбирается очень хорошо, документация Bing при поступлении в программу Software Engineer Intern.
Чтобы определить бред или не бред. Присходит первоначальное сканирование. Далее определение полная копия ли это или нет + качество самого контента.
К сожалению, водянистый бред ,если он написан "професионально" сложно определить алгоритмам, но автоматически сгенерированный текст и всякую хрень авторераит определяется легко.
Да так и есть текст с водой весомее (к сожалению) ,но тут есть понятие ,как пользовательский фактор. Ведь, если содержание бред, то пользователь долго не задержится.
Просто сейчас во всех поисковиках есть тенденция к уменьшению текста на страницах. Т.е. если раньше юзали портянки, то теперь для нормального ранжирования достаточно 1 абзаца на страницу категории, а иногда текст вовсе не нужен.
Сейчас ПСы требуют минимум воды и больше конкретики.
Не совсем так. Все форматы ,которые были так и есть. Сокращение количества символов произошло из-за скорости обновления ,но это не есть хорошо (не полезно). Есть вещи ,которые стали модными - это 140 символов , короткопостики ,но это пройдёт увидишь. Интернет всегда испытывал давление трендов, но потом изменяется к чему-то среднему.
+ Многие тематики нельзя растолковать в 2-3 предложениях.
Ответ на эту психологическую тему был озвучен на TED'12. Людям хочется получить быстрее информацию т.к. многие люди не могут держать фокус на странице долго + люди стали меньше читать на планете + люди перестали вникать и т.д. множество факторов ,но если тематика требует длинных постов и содержательных ответов ,то - этот сервис или сайт найдёт своего посетителя.
Это, как читать книгу в сокращённом варианте или от фильма отрезать кусок в 10 минут.
Я лучше хоть как-то буду проверять, чем надеяться на авось. Вы же когда ссылки покупаете тоже по каким-то параметрам это делаете, а не все подряд берете? Вот и проверка тоже должна осуществляться на основе какого-то фильтра.
Ну проверить передачу стат. веса я никак не могу. Поэтому смотрю на заспамленность, PR и прочие параметры. Только в этом случае повышается вероятность взять хорошую ссылку, но никак не возможность узнать передаётся вес или нет)
---------- Добавлено 12.05.2013 в 20:53 ----------
BangaManga, так вот и получается, что чем текст полезнее, тем документ менее значимый, т.к. в полезном тексте нет воды и кол-во символов обычно меньше. Про уникальность я вообще не говорю, т.к. мы априори берём уникальный контент и написанный образованным человеком.
Если это правда так работает, то бред полный, но я первый раз такое слышу.