- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
С каких пор гугл стал децентрализовнным?
Больные свои фантазии на меня не перекладывай.. Я не говорил, что g децентрализован, я сказал, что у существующих поисковиков мусорная концепция. Мусорная концепция - это собирать в сети весь мусор и индексировать, так же и выдавать в результатах кучу того что и к запросу пользователя то не относится. Если хорошенько подумать, то можно же по-другому сделать и децентрализовать микросервисами. Но у тебя с мышлением проблемы, не говоря уже о реализации чего либо подобного..
ЗЫ. А я и гайки точить могу и программы писать в отличии от тебя 😎
зачем мне индексировать свои сайты вместе с вами?
мне нужен трафик на сайты с поисковых систем, органический
как ваш проект его обеспечит?
Если за 6 страниц я не смог донести до вас свою идею, то врят ли у меня сейчас получится. Но попытаюсь.
Индексируете свой сайт и держите файлы индекса в своей копии Yacy, у вашего хостера. Ваша копия связана со всеми другими копиями Yacy. Когда другая копия Yacy производит поиск, запрос идет по всей децентрализованной сети, и ваш сайт, если он соответствует запросу, вылезает у других. Но находится сам индекс физически у вас. Вы хостите свой индекс. Это зафиксировали.
Теперь, когда вы установили Yacy, проиндексировали свои сайты и связали свой Yacy с тысячами других, настал момент интеграции Yacy с вашим сайтом. Можно вставить через iframe или JS форму поиска на ваш сайт, а можно скачать PHP класс и пример PHP кода для работы поиска на вашем сайте. Это зафиксировали.
Теперь, когда кто-то ищет информацию на любом сайте с интеграцией Yacy, то может перейти из выдачу на ваш сайт. А с вашего сайта могут искать и перейти на сайты других участников. Зафиксировали.
Из это цепочки мы исключаем поисковые системы, они больше не нужны. На каждом сайте, который хочет получать поисковой трафик есть форма поиска по интернету, по которой вебмастера обмениваются поисковым трафиком. Зафиксировали.
Что-то прояснилось?
P.S. Улучшать ничего не нужно, если оно и так выполняет свои функции. Если кто-то уже создал колесо, то лучше не изобретать свое, тем более, если дают рабочее колесо бесплатно.
Индексируете свой сайт и держите файлы индекса в своей копии Yacy, у вашего хостера. Ваша копия связана со всеми другими копиями Yacy. Когда другая копия Yacy производит поиск, запрос идет по всей децентрализованной сети, и ваш сайт, если он соответствует запросу, вылезает у других. Но находится сам индекс физически у вас. Вы хостите свой индекс. Это зафиксировали.
Ну а теперь подумай, как это будет происходить физически?
Я зашел на твой сайт, в твоем поисковом фрейме выдал запрос "Как стать токарем?" Что будет происходить дальше? У тебя на сайте нет такой информации, но она есть на 100 других. Как будет происходить поиск?
Я не говорил, что g децентрализован,
Цитирую твои слова:
Сделать децентрализованный поисковик более чем реально, правда с иной концепцией чем существующие мусорки google, yandex
Сам не понимаешь, что написал. Спрашивать, в чем иная концепция, почему существующий у гугла алгоритм - мусорный, не стану, все равно не ответишь.
Ну а теперь подумай, как это будет происходить физически?
Я зашел на твой сайт, в твоем поисковом фрейме выдал запрос "Как стать токарем?" Что будет происходить дальше? У тебя на сайте нет такой информации, но она есть на 100 других. Как будет происходить поиск?
Заходит юзер на мой форум обсудить пончики. Потом ему приходит мысль искать "как стать токарем". Он не уходит в Google/Яндекс, а пишет свой запрос в поле поиска на той же странице, где сейчас находится. Переходит по ссылке на твой сайт с заголовком "Электрика для новичков. Как стать токарем".
В это же время, с другого сайта, другой юзер пишет запрос "Форум пончики" и переходит ко мне на сайт.
Дальше уже дело не в технологиях, а в выборе между разнообразными результатами поиска на любом из моих любимых сайтов и цензурой поисковых систем. Через сайт про пончик, который я часто посещаю, я буду обнаруживать много новых интересных и полезных ресурсов, например сайты про токарей, вместо дзена и кинопоиска в известных поисковых системах.
Так как каждый держит у себя кусочек поисковика, нагрузка распределяется следующим образом. Чем больше твой сайт, тем больше индекс и тем более нагрузка идет на RAM, CPU, диск и т.д. Ты берешь сам ответственность за поиск по своим сайтам. Таким образом тысячи вебмастеров вместе, смогут потянуть миллионные расходы на поиск в интернете. Платишь только за себя. Взамен еще и получаешь целевой трафик.
P.S. Сайты предоставляющие такой поиск получают трафик. Во первых их сайт виден в поиске на тысячах других сайтов, а потом еще и в виде повторных посещений лояльных пользователей. Поисковики же не потеряли трафик, когда предоставили поиск пользователям. Кстати никто не мешает вам лично еще и рекламу вставить на страницах поиска, ведь пока пользователь не перешел, он еще находится на вашем сайте. Хозяин барин.
Проясняется?
Через сайт про пончик, который я часто посещаю
Кстати у нас 27 февраля Жирный четверг, или кк его еще называют день Пончика. Все магзины, кафешки забиты пончиками, все их едят и видов сотни))
Но это так, оффтоп)
а пишет свой запрос в поле поиска на той же странице, где сейчас находится.
Ты видно не очень понимаешь деталей реализации и во что все упрется. Для начала подумай - почему до сих пор узлов всего пара тысяч.
Технически все упирается в протокол P2P, где связь между узлами идет по HTTP протоколу. Чтобы понятнее.
Я зашел на твой сайт и ввожу поисковый запрос. У тебя нет индекса всех сайтов, чтобы его получить, я должен обойти все узлы и получить их. Тк как индекс храниться в хэш-тблице, но работает довольно быстро, но вот обмен данными по Хттп протоколу очень долгий. Поэтому время...
Ну второе - спамеру ничто не помешает создать свой узел в сети и выдавать в поиске то, что выгодно ему. В итоге предвзятости неизбежать.
Это очень классная штук для организации закрытого поиска внутри, например заводской сети. Она будет стабильной, не зависящей от внешки, устойчивой. При масштабировании вся прелесть ДП теряется.
Что-то прояснилось?
да, я понял. спасибо
но я не хочу делиться бесплатно трафиком с другими участниками децентрализованного поисковика
т.е. размещать формы поиска...
мне нужно удерживать внимание посетителя моих сайтов на контенте моего сайта...
а не передавать трафик другим...
понимаете?
ничего не получится..
я сначала думал вы хотите удешевить поддержание индекса нового поисковика в рунете.... за счет использования ресурсов участников проекта... краудфандирования железом так сказать..
но будете продвигать известность какого то бренда.. как слова яндекс, рамблер, гугл, апорт..
чтобы уже с сайта этого бренда перераспределялся трафик как делают яндекс и гугл в рунете...
увы, я только за такое
вложиться как бы в "акции" нового поисковика..
но будете продвигать известность какого то бренда.. как слова яндекс, рамблер, гугл, апорт..
не правильно понял, прочитай на вики про YaCu
Я поставил Yacy для теста на своем сайте из подписи. Проиндексировал сайты из своего каталога.
И мы получили твои предпочтения, не более. Как это помогло свободному интернету? Что у тебя коллекция варезников, которые нормальный поисковик заблочит?
А еще сто человек сделают свой каталог - какой правильнее?
В итоге, вместо того чтобы искать в гугле, я буду искать в куче спама, никак и никем не фильтруемой?
Уж лучше я по старинке.
Это стати еще одна причина местных борцунов с ИИ, сайтики которых он отсеивает по причине малоценности. Вот им твоя идея должна зайти)