- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
как думаете, яша и ко уже палят уникальность изображений? у яши есть статьи на подобные темы в списке грантов, так может час х уже пришел?
я просто тут смотрю на свои сайтики, и думаю, что кроме фоток, хуиза и ип их ничего не объединяет. При этом одна выстреливает, две лежат мертвым грузом.
думаете я параноик? :bl:
Да,вот тоже интересно мнение профессионалов в сео:)
Думаем, что пока еще им рано. Пока что приоритетны только разборки с оптимизаторами. :)
Знаете, gogo.ru по порнушным картинкам плохо ищет, куча одинаковых картинок!
В яндексе же повтореений нет! Думаю яндекс дубли определяет, тем более это делается несложно. Хуже когда картинка немного изменена...
А уникальные картинки так сложно делать?
Не сложно - просто дорого нынче заказывать альт-копирайтинг.
А уникальные картинки так сложно делать?
Достаточно пережать. :)
Совпадение до битов + одинаковый альт = дубликат.
Гугл читает дополнительную информацию, ресайзинг и сброс профиля тока.
Достаточно пережать. :)
у меня на каждой площадке копирайты разные в изображениях.
конечно, может дело не в этом. но все-таки... вы думаете у пс до сих пор считается тупо контрольная сумма файла? :)
(
Контрольная сумма для исключения дублей считается по оригинальному изображению, попиксельно, в RGB.
http://company.yandex.ru/grant/datasets_description.xml
)
зато вот тут кое-что поинтереснее: http://company.yandex.ru/grant/list.xml
1. Быстрая классификация JPEG–изображений.
2. Распознавание типовых портретных изображений в задаче автоматической классификации
это еще 2004-2005-й года. меня давно эти публикации напрягают понемногу :)
response добавил 08.02.2008 в 02:35
Совпадение до битов + одинаковый альт = дубликат.
Гугл читает дополнительную информацию, ресайзинг и сброс профиля тока.
а профиль это что? та инфа служебная, типа на каком девайсе фоткалось, когда и кем?
у меня на каждой площадке копирайты разные в изображениях.
конечно, может дело не в этом. но все-таки... вы думаете у пс до сих пор считается тупо контрольная сумма файла?
Ну, как сказать... считается, может быть, и много всяких параметров - но вот как они учитываются?
Если поисковик различает (не склеивает как дубликаты) фразы "пластиковые окна" и "деревянные стеклопакеты", то и картинки окон/пакетов он не "поклеит": они ж ведь весьма похожи.
Т.е., даже если алгоритм различает некие общие блоки в картинках, а не просто сравнивает биты (а даже при простом пережатии - матрица существенно меняется), то это ещё не повод считать сравниваемые образцы "нечётким дублем". ;)
Ну, как сказать... считается, может быть, и много всяких параметров - но вот как они учитываются?
Если поисковик различает (не склеивает как дубликаты) фразы "пластиковые окна" и "деревянные стеклопакеты", то и картинки окон/пакетов он не "поклеит": они ж ведь весьма похожи.
Т.е., даже если алгоритм различает некие общие блоки в картинках, а не просто сравнивает биты (а даже при простом пережатии - матрица существенно меняется), то это ещё не повод считать сравниваемые образцы "нечётким дублем". ;)
да сам не знаю, вариантов много.
ну вот простейший-параноидальный: есть коллекция галерей для блогов. На каждом блоге они разные (пережатые в разных размерах, разный копирайт шлепнут). Но в принципе-то, если брать динамический размер блока (не восемь пикселей, а там пять процентов), и считать тупо средний rgb всех пикселей :) Я не разбираюсь в изображениях, ну че-нить там считать, не от непосредственно битов информации зависящее, а от того, как эта информация визуально представлена в итоге (цвет, яркость, etc.).
Вот так бьем каждую картинку на части, считаем средний "цвет", и, как мне кажется, удачно палим с высокой долей вероятности все ресайзы (ну, пикселей до 400-500 в ширину, наверное).
Что-то такое, примитивное, но в общем-то кажется верное..
эксперимент что-ли провернуть 🙄
эксперимент что-ли провернуть
Разве что. ;)