А кому вообще нужен этот AJAX именно для навигации по сайту(загрузки целых страниц)? Помоему уже давно не актуально. Экономить килобайты, не загружая шаблон?
Так уже с телефонов все лазят нормально по 1-мегабайтным страничкам.
ИМХО асинхронная загрузка сейчас актуальна когда какие-то небольшие данные, цифры, элементы интерфейса динамически подгружаются.
А сайт полностью на AJAX это сродни сайту на фреймах.
Индексируются HTML копии с escaped_fragment_=page, а в сниппете отображаются более приятные глазу #!page
Интересно только, ссылки на какие страницы покупать 😂, кто-нибудь спрашивал у Платонов?
Ну это все могут.
Как, например, с помощью этого метода проверить 1000 страниц доноров на переспам?
было
Писал уже с полгода назад наверное яндексойдам - говорят починят. Грей тоже говорил починят. Все починить не могут ))
sabotage, винрар(или zip) - потому что там очень крутой алго поиска похожих частей текстов, которые можно ужать, отточенный годами. Соответственно, если:
-большая плотность ключевиков
-много повторяющихся двух/трех-словников
-"Текст с водой: 25 самых частотных занимают 55% объема текста"
то коэффициент сжатия такого текста будет больше чем нормального текста. Это подтверждают эксперименты в докладах. Спам сжимается больше, чем нормальный текст.
Чем плох способ? Он сразу выдает цифры, которые коррелируют со спамностью.
Например
6,7
5,6
5,2
12,2
8,2
4,4
(большое число - похоже на спам. Обычное - не похоже на спам)
Я юзал Яндексовский Mystem. Но у поисковиков покруче всеравно алгоритм - они используют гигантские словари лемм, синонимов, переформулировки. Не понял, правда, как это к теме относится :)
Да не. Алгоритмы архивации сейчас крутые. Все, наверное, замечали что тексты очень хорошо сжимаются архиваторами.
Там довольно продвинутые аглоритмы. Они не только словари текста создают, но и учитывают часто встречаемые биграммы триграммы слов.
Эта часть алго архиваторов напоминает алго поиска избыточных, неестественных, повторений фраз.
Доказательство: взять блокнот, написать там
Запаковываем RAR'ом, получается файл размером 800 байт (из которых, наверное большая часть это служебная инфа и заголовки).
Явно сжатие не посимвольное? :)
sabotage, там результаты исследований, где видно что спамность хорошо кореллирует со сжимаемостью текста. Инфа столетней давности, просто никто вроде удобных утилит так и не придумал. Думаю может я один такой отсталый, с winRAR'ом)
- Все перечисленное используется уже 10 лет winrar для сжатия текста.
В викимарте, если верить их отделу лингвистов, оценивают текст так - но они не делятся утилитами)
Вода - это часто большое количество всяких служебных слов, повторяющихся длинных текстовых конструкций. Замечал, что в текстах "ни о чем", меньшее количество лемм, занимают большее количество текста.
Ну, например (цифры условные):
Нормальный текст: 25 самых частотных слов занимают 35% объема всего текста
Текст с водой: 25 самых частотных занимают 55% объема текста
В общем, объясняя на пальцах, разнообразный корпус слов и фраз сжать сложнее, чем однообразный)
Что не так?
http://jmlr.csail.mit.edu/papers/volume7/bratko06a/bratko06a.pdf
http://bazzinga.org/upload-files/poisk_neestestvennih_textov_statia.pdf
http://rcdl.ru/doc/2011/27_pavlov.ppt
Allsubmitter - одна из лучших (если не лучшая) программа для SEO аналитики.
Она не развивается в плане спама каталогов (потому что он уже несколько лет практически не работает).
Зато хорошо развивается в плане аналитики.
Постоянно добавляют новый функционал, прислушиваются к запросам новых функций пользователями.
В хелпе не задокументирована и малая часть функционала - он огромен.
Кто-то справедливо написал, что программу пора переименовать в AllAnalyzer, так как та 10%-спам по каталогам, 90%-аналитика.
Минусы - глючная, тормознутая, сложная в понимании. Она как китайский грузовик - все время что-то не работает, гремит и трещит, но до места назначения всегда довезет =).
В древние времена вроде брутально выглядел 😂
Очень надеюсь на это.
http://www.nr2.ru/incidents/386741.html
Странная инфа какая-то. Непонятно фейк или нет.