MORDA10

Рейтинг
37
Регистрация
10.04.2007
MGX2000:
Был сайт про металлы, html, текст уник, 100 страниц в ручную делал, ссылками не торговал, висел бегун и адсенс.
Википедия признала сайт хорошим и сама поставила ссылку на меня, контент растащили в итоге бан по полной.

Судьба всех сдл_по_контенту. Написал-стырили-бан. А говно контент не тырят в здравом уме.

Тоже поэксперементировал. Думаю так. Перед поиском изображение приводится к чёрно-бело-серому варианту. Определяются границы переходов от одного цвета к другому - контуры, по такому же принципу в фотошопе работает инструмент "волшебная палочка". И в зависимости от полученных контуров изображение делится на блоки, эти контуры в блоках переводятся в цифровой вид для дальнейших поисков. Причём небольшие блоки, не распознаются.

Поэтому разные небольшие надписи на изображении, изменения цветов, нанесение дополнительных рисунков на передний план или небольшой поворот изображения нензначительно меняют контуры в других блоках и они находятся. Похоже на то как ищут схожие отпечатки пальцев на ПК.

Из вышесказаного следует. Искажать нужно контуры изображения особенно там где они отчётливо просматриваются и в нескольких местах. Либо делать так чтобы бот не нашёл картинку.

ip яндекса? В UserAgent можно прописать всё что угодно

скупит забаненые домены за рубль/шт, и сделает на них 100р*шт

линкообмен>скрипты для обмена и учёта ссылок>биржи сайтов> биржи бирж(сеопульт итп)

= ЭВОЛЮЦИЯ

Не случайно произошли такие изменения в способах популяризации ресурса, жизнь заставила.

В целом такой линкообмен не живёт и года. Не стоит тратить на это время.

nofollow по большому счёту, ведёт гугль в тупик. Если бы все ВМ следовали рекомендации гугля, ставить nofollow на внешние ссылки, то как бы после этого передавался вес страниц! Тупик.

А вот определить продажность или непродажность ссылки - почти 100% вероятность что ссылка( и сайт за ней), не куплена на бирже, где такие тэги запрещены.

Гугл не выполняет java, а парсит на предмет наличия тэгов так или иначе связаных с урлом.

Вот такую ссылку он уже не расшифрует.

<SCRIPT LANGUAGE="JavaScript">Decode("60!97!32!104!114!101!102!61!34!104!116!116!112!58!47!47!119!119!119!46!110!101!119!115!114!117!46!99!111!109!47!102!")</SCRIPT>

Функцию расшифровки держать в файле и запретить гуглу туда лазить по ip или UserAgent, в роботс прописать запрет, т.е. максимально усложнить, и как можно более нестандартно спрятать ссыли.

<!--WEB-->:
Ты помнишь, как все начиналось? (с) Андрей Макаревич

И ответ:

Хорошая ссылка, значит 504 ошибка в сапе это проблема с самого её открытия. Раз за 2,5 года ничего не изменилось в этом отношении, то и в ближайшие несколько лет не изменится.

На одном из сайтов более 80 внешних тематических ссылок на главной все в nofollow, PR был более года = 2, с июня упал до 1, были подозрения на уход веса через nofollow, делать ничего не буду, посмотрю что будет к следущему апу.

Страницы wiki, их вес вероятно в ноль уйдёт.

Ну ладно, успокоили, ждём.

1 234
Всего: 38