- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Дело 5 минут? Сканировать миллионы сайтов? Да ВМы спалят такую проверку через час после запуска. Через день выйдет заплатка для всех движков.
Мыслить надо в масштабах ПС, а не одного сайтега.
Я образно написал - дело пяти минут :)
Там же в яндекс не сидят над скриптами по пять минут и всё гораздо сложнее.
гуманитарий это вы. а у меня высшее по профессии программера.
Извините, но я специалист по автоматизированным системам. Тоже с дипломом. Разницу с обычным программером объяснить? :)
---------- Добавлено 29.11.2013 в 00:18 ----------
Я образно написал - дело пяти минут :)
Там же в яндекс не сидят над скриптами по пять минут и всё гораздо сложнее.
Такая проверка будет видна в логах. Не годится.
dlyanachalas, вообще то Flector прав.
Для оптимизитора\вебмастера не слышать о Мадридском докладе Яндекса - как минимум странно.
Яндекс может определять продажные ссылки. И гугл это может. Что в этом странного то? Есть выборка чистых сайтов по которой собираются эталонные данные на протяжении нескольких лет. На основании этих данных можно написать алгоритм который будет анализировать как исходящие с сайта так и входящие на сайт.
Я свои сайты тоже люблю. И вложил в них массу сил, труда и денег. Но даже я понимаю, что спалить сайты с исходящими не проблема. Просто потому что ни на одном СДЛ проекте не появится 100-1000 исходящих на "купить окна онлайн недорого".
Если вы чего-то не понимаете в рассуждениях, вы можете спросить. Но все мои выводы основаны прежде всего на анализе большого количества сайтов.
Про "сео-ссылки" на сайтах, не продающих ссылки, есть рабочая версия. Но в таком тоне не вижу смысла озвучивать ;)
вы не умеете делать самые простейшие выводы из доступной информации.
вычислять продажные ссылки для ПС плевое дело. гугл вон несколько лет назад порезал PR на 3 единицы всем сайтам, которые продавали ссылки. от больших до маленьких. потом, конечно, гугл на PR забил, некоторые сайты реабилитировал, но звоночек для понимающих людей прозвенел - вычислить сайты, которые продают ссылки - для ПС сущие пустяки. при всех бредовых версиях, которые тогда высказывались по поводу того, как гугл определяет продажные ссылки - чеканье "url" даже в голову никому не пришло, слишком уж бредовая версия.
ПС постоянно отслеживает сотни различных параметров для каждого сайта, неужели вы думаете, что определить мигание ссылок на конкретном сайте для ПС сложное дело? ей-богу, поражаюсь вашей наивности.
АГС теперь накрывает сайты, на которых, по его мнению, могут появится SEO-ссылки.
Вот у меня такое и произошло на одном сайте. Ссылки ещё не продавались, код сапы уже стоял, а Платон мне написал про продажные SEO ссылки, хотя их там и в помине не было.
и алгоритм, вычисляющий продажные ссылки, очень прост.
И Вы этот алгоритм могли бы обрисовать, коль скоро он прост? 😕
Определить продажные - труда для ПС не составляет. Сложней отказаться от их учета. Поэтому хорошие доноры жили и будут жить, а плохих всегда как кошек имели и будут иметь.
dlyanachalas, вообще то Flector прав.
Для оптимизитора\вебмастера не слышать о Мадридском докладе Яндекса - как минимум странно.
Откуда информация, что я не слышал о Мадридском докладе?
Он тут обсуждался примерно 100500 раз, включая первое обсуждение с wolf'ом. У него есть большой изъян, не позволяющий применить в полную силу.
И предположение об учете служебных запросов Яндексом тоже звучало периодически. Но, до АГС-40 и "исповеди бывшего яндексоида", никто всерьез не чесался.
Некоторые не будут чесаться и позже.
;)
---------- Добавлено 29.11.2013 в 00:27 ----------
Вот у меня такое и произошло на одном сайте. Ссылки ещё не продавались, код сапы уже стоял, а Платон мне написал про продажные SEO ссылки, хотя их там и в помине не было.
Ну так что, Платон-телепат? :) Или всё-таки есть версия попроще? ;)
---------- Добавлено 29.11.2013 в 00:28 ----------
И Вы этот алгоритм могли бы обрисовать, коль скоро он прост? 😕
Вероятно, товарищ имеет в виду "прост для Яндекса" :)
И Вы этот алгоритм могли бы обрисовать, коль скоро он прост? 😕
а чего его обрисовывать?
там вариантов для определения продажных ссылок вагон и маленькая тележка.
самое простейшее и легко реализуемое - постоянное появление и исчезновение ссылок на страницах, которые более не меняются.
это самое простое - но не думаю, что прогеры гугла или яндекса пойдут по простому пути - скорее всего там куда более навороченный алгоритм, учитывающий от тематики до естественности расположения ссылок.
dlyanachalas, что то мне подсказывает что все сотрудники Яндекса подписывают соглашение о неразглашении. Тем более сотрудники отдела поиска, всё таки информация там крутится достаточно ценная.
А за хороший инсайд некоторые "и миллиона не пожалеют".
И что за чудо изъян у алгоритма есть? И откуда информация что он не был устранён за последние года? Доклад то 2009. У Яндекса с того времени много новых "плюшек" появилось.
З.Ы. Я не отрицаю того, что запросы url\host могут учитываться как один из факторов который сигнализирует алгоритму на подозрительность сайта. Но, то что такие запросы могут привести к АГСу - бред чистой воды. Это будет вундервафля среди способов убить конкурентов.
В итоге всё сводится к тому, с чего начали.