XPraptor

XPraptor
Рейтинг
333
Регистрация
15.10.2004
Должность
Web Soft Developer
Интересы
Programming
zaoss:
которая возместят за клоакинг

T9 он такой T9 :)

sbseo, По ссылкам, ты почти верно указал второй вариант - разорванное кольцо (как и обычные доры тоже так могут линковаться). Только не голые пары, а нахлест в кольце между двойками.

sbseo:
Смысл в том, что им не нужно место на диске. Обычным страницам место нужно, таким страницам место не нужно. Есть еще ограничения на иноды. Ты реально заливал миллионные индексы на дешевые или фрихостинги на 1 акк, или теоретизируешь?
Плюс в урл можно зашивать чисто json данные, а на сервере заворачивать в красивый шаблон, ставить рекламу и т.д. Либо отказывать в распаковке конкретной страницы, типа удалена.

Абсолютно всегда лью на шареды не дороже 300р. И впски не дороже $6. Вот на днях пачка всего ГдеСлон ушла на шареды (а там более полумиллиона товаров). Инноды - каким боком ты за инноды собираешься выскочить? Допустим в каждом файле у тебя 5000 товаров/страниц/заголовков, (и это по самому минимуму, чобы совсем быстро всё было) - 200 файлов на 1 миллион страниц, плюс десятка вспомогательных самого кода. Как ты собираешься выскочить за инноды любого 10-ти центовго хостинга с 250 файлами кода (и если решишь у себя картинки хранить, то еще тысяч 5-7 комби контейнеров с картинками)?

На моей памяти, и то года три назад, самый жадный хостер давал 250К иннод (и то можно было через саппорт расширить), но сейчас таких уже нет хостеров.

Места совсем мало нужно для текста, сйечас с дисками вообще нет проблем - диск сейчас в принципе не решает ничего, терабайтники за десяток баксов отдают (вон зайди в раздел хостинг на серче, там сервера за 1500-2000 рублей народ требует и хостеры предлагают в ветках им такие машины).

sbseo:
Да ладно. И как такие страницы можно залинковать? При ссылке со страницы B на страницу A, страница B будет в себе содержать и страницу A и страницу B, т.е. в 2 раза больше станет. При ссылке со страницы C на страницу B, страница C будет содержать A, B и C т.е. в 3 раза больше.

Не понял, это шутка, или серьезный вопрос? Если не шутка, то очень странно, линкуется как и стандартные саты кольцевые - по линку на страницу, никакая страница не может содержать 2 ссылки - и в этом и есть одна из основных проблем этой технологии, что с сервером, что без него - линковать можно только кольцом, чтобы уместить нормальное кол-во текста на самой странице.

sbseo:
Место на диске. Ну вот смотри. Допустим ты нашел тему, которая дает со 100gb индекса 1000р в мес. Индекс этот создавать на раз, всё полностью автоматизировано. Сколько с этой схемы будет чистый профит? А нужен он такой?
А если место под индекс не надо?

Об этом и речь - если бы эти страницы давали траф лучше, или на таких же условиях как и обычные страницы, с множественной линковкой, но нет, такого нет. 1 линк только и траф хуже чем на обычных страницах

с многолинкой - поэтому и написал выше - плюс отсутствия хостинга, убивается минусами всего стального (включая профитом) - смысла нет в этих пагах в их текущем представлении.

sbseo:
Как раз для того, чтобы поддерживалось всеми браузерами + была возможность управлять контентом. "Удалять" страницы, перелинковывать на бекэнде пока идет индексация, менять рекламу и сливы и т.д.

Тогда они не будут никак отличаться от обычных страниц, а проблем с ними больше.

Зачем мне длинные урлы через свой домен, а потом на ТДС чтобы расшифровать это всё, когда я могу на домене таких же страниц наклепать с разметкой минималистичной, а потом отдавать в gzip сжатии их - и будет каждая страница весить столько же, как и эти с длинным урлом, и хостинг от таких страниц любой за доллар не загнется (да и бесплатный выдержит сотни тысяч таких страниц).

Смысл этих новомодных страниц именно в отсутствии хостинга, они существуют только там, где этот урл оставили (на чужих проектах), плюс подгрузка скриптов из паблик хранилищ гугла например.

Бэкэнд обеспечивается именно вашим генератором (во время генерации пачки, вы и линкуете их между собой, никакой сервер для этого не нужен). А изменить контент уже нельзя - урл меняется при этом, так что смысл менять что-то после создания пачки, уже отсутствует. Динамический контент для самой страницы, вы подгружаете скриптом встроенным в неё из внешнего источника, но на урлы и на индекс он уже не влияет, а только на пользователя и ваши тесты.

Ну если трафа нет, то никак.

Так если траф есть - зачем этот огород городить :) Этот тип страниц не дает никаких преимуществ в индексе и трафе, а наоборот, ухудшает их. Если под траф делать, то лучше в тысячи раз обычные страницы, чем эти. Тут как раз-таки весь смысл пульнуть на чужие ресы кучу урлов и всё, нет ни хостинга ничего - они сами себе живут в сети потом, магия млина (ваш домен только линку распаковщика в 300 байтов выдает на запросы, живи себе - радуйся).

Но, магия пока не у всех работает, не везде длина проходит (даже 2048 не всегда проскакивает), поэтому, пока эти страницы одно баловство. С нетерпением ждем, когда все люди пересядут на современное железо и софт, вот тогда и начнется эра такого типа контента. Там, глядишь, и браузеры увеличат лимиты на всё, и начнется без-хостинговый виртуальный мир (все пересядут на шареды копеечные, чтобы держать домены привязанными и отдавать линк для скрипта распаковщика) :)

Да это кто-то из дороделов бойлерпайп тестирует :)

Видимо вы случайно попали в его список, не волнуйтесь, когда пройдет скан всего сайта вашего - видимо больше вы не попадете к нему.

sbseo:
Ты уже не первый раз про это пишешь, но я так и не понял причем тут шифрование и упаковка в браузере

Если бы для этих страниц еще и сервер нужен был для расшифровки - то на.. они такие вообще сдались. https://github.com/pieroxy/lz-string/

Расшифровка происходит именно на стороне самого браузера клиента (но сама имплементация серьезного lzma, не поддерживается многими устройствами и старыми браузерами, приходится либо юзать слабое базовое сжатие, и тогда размер контента совсем маленький можно впихнуть, либо мириться с потерей посетителей из-за не поддержки шифрования).

И да, я не этот скрипт использую (который тут выложен), я использую саму технологию просто этих страниц, которая описана в оригинале, я сам разработчик.

есть ниши, где можно зарабатывать деньгу имея гигантский индекс (видео, музыка, файлы, ...).

А можно про это поподробнее (в личку если что). А то у меня есть куча доменов с миллионными индексами и без трафа - как на этом заработать?

JungleBox, да, но я в тесте у гугла зараза, траф ровненький, ни вверх ни в низ.

Так, что смысла нет в этом уне. Мало того, что моб выдача обрезается с таким урлом длинным, так еще и плюсов никаких нет в продвижении. Таким макаром можно легкой разметки и обычных страниц напихать, хостинг не перегрузится от таких малых страниц.

Плюсы отсутствие хостинга, нивелируются невозможностью менять контент в таких страницах и пока большим процентом юзеров с браузерами, не поддерживающими шифрование современными упаковщиками.

Я в сотню страниц вклеил подгрузку данных скриптом из внешнего источника для теста - юзерам красиво, но боту не видно, поэтому ему все-равно, он видит мелкую разметку и контент.

В общем, серьезного выигрыша не вижу в этой технологии пока, а мороки много.

JungleBox, в хроме он уже не работает.

Как только гулг снизойдет до проставления rel="noopener" в своем серпе, перестанет работать и в остальных браузерах.

Drums:
но на пыхе 5.2 не завелось

А я думал что php 5.2 уже деприкатед и запрещен на хостингах :)

Это стандартное управление яваскриптом окном opener (окном, которое открыло текущее окно вашего сайта).

Но этим стали злоупотреблять - хром в текущей версии закрыл это и теперь нельзя управлять этим окном, откуда вы открыли окно вашего сайта, все остальные браузеры закроют тоже скоро это действие (хоть и печально).

Кроме этого, во всех браузерах новых действует тег, если в ссылках на своих сайтах прописать rel="noopener" то любой браузер не даст изменить страницу откуда был перехеод (я уже полгода пишу на всех своих дорах этот тег во всех ссылках).

Так, что ТС, не заморачивайтесь, скоро это перестанет работать совсем, нужно будет только на уровне аддона в браузере юзать (а его тоже будет проблемно пропихнуть с такими действиями куда-либо).

---------- Добавлено 08.08.2018 в 21:40 ----------

Кстати, давно не анализировал теги яши - сейчас глянул, у него все ссылки серпа с rel="nopener", так, что остыньте ТС, нужно свой аддон или плагин в браузер впаривать, чтобы управлять яшинй выдачей теперь.

А гугл такой весь прогрессивный, всем рекомендует этот тег, а свой серп без этих тегов и отлично подменяется :)

Всего: 3323