- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
это нудно и не интересно
они и сами все это знают
мы стерпим, давайте
тем более вы не им говорите, а нам :)
greenwood, да, я тоже хочу Вас почитать! ;)
greenwood, не томите :)
Кстати, скажу по секрету, у буржуев во вполне себе конкурентных темах можно пробиться без покупных и ангажированных морд. ;)
Дык и у нас можно, почему бы и нет :)
надо просто ..а может и непросто ... поисковикам искать алгоритм ранжирования свободным от учета ссылающихся ссылок
Каков бы ни был критерий учета, как только он станет существенным, сразу же начнутся попытки воздействия на него (прописная вроде истина). 🙄
Лабиринт Отражений прямо...
это не лабиринт отражений - это флуд. Перечитал все посты Ваши в этом топике - сплошной флуд.
ну если сильно интересно то слухайте :
способа как-бы два
1. создавать региональные базы с ручной проверкой
конечно в регионах надо садить своих сотрудников и платить им за промодерацию ссылок и наполнение баз и дать им возможность на этом зарабатывать ..своего рода это некая партнерка получается.
Чистота таких баз будет конечно на порядки выше.
На основании таких баз можно перейти к включению второго способа.
Создать алгоритм (согласен что это непросто) определения естественности ссылок.
пример:
естественна ссылка с сайта продажи квартир на сайт по строительству домов
неестественна ссылка с сайта медицинских консультаций на сайт по строительству и на сайт по продаже квартир, как и обратные (хотя в некоторых случаях обратные могут быть и естественными)
Мало того ... если все изначально правильно структуировать по отраслям, то систему можно сделать и самообучающую.
Мало того - можно естественность ссылок для гибкости определять ну скажем по десяти-бальной системе.
ps
я как дорвейщик - от такой системы пострадал бы первый :)
и разгадать ее сложно и плюс пробиться через регионалов было-бы непросто
В таком случае это НЕ поисковик, но портал. Медийный, не медийный, но портал.
В таком случае это НЕ поисковик, но портал.
а наплевать ... важно то что на правдивых базах отшлифуется алгоритм определения естественности ссылок и потом уже можно будет отключать первый способ или вообще его оставить в параллель работать
greenwood,
Это ручной труд да и только...