- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Тоже интересует этот вопрос..
Это будут уже не сквозные :)...
я вот единственное не знаю, как ограничить простановку, потому как вариаций ссылок примерно 200+ а страниц 40 000, на доноре.
Infidel,
Ставьте со страничек с хоршим PR-ом или с тех которые видны в выдаче ;-)
Ну там почти все в индексе, с морды уже стоит:)
Про ограничения я имел ввиду немного другое, будут дубли...., т.к линки будут подсасываться скриптом
Ставте одинаковый url и меняйте скриптом текст ссылки ;)... будет такая ж...
Если серьезно: нужна стабильность.
позвольте поофтопить:
для большого сайта может и много ресурсов надо, но вот для отдельной страницы - вовсе нет.
взять таблицу со свеми лексемами страницы с кол-вом вхождений каждой
лексемы раскидываются по семантическим полям
каждой "теме/тематике" соответствует всей кластер семантических полей
в какой кластер вошло большее количество вхождений лексем - та и тематика у страницы.
машинного времени тут не так много надо имхо (учитывая, что на морф. анализ его уже хватает :) ).
зато практически неразрешимая в настоящее время проблема построения адекватной модели - начиная с технической задачи - необходимости сопоставить каждую известную в языке лексему семантическому полю, заканчивая определением набора семантических полей и их кластеризации по темам/тематикам.
вся эта байда назавается "семантический анализ" и довольно активно используется во многих специальных случаях (психолингвистический анализ, определение подлинности [авторства] документа при установленном авторстве эталонной коллекции документов). Только для каждой конкретной задачи составляется собственная модель, а для неконтролируемой коллекции документов замутить её слишком сложно.
так что адекватное определение темы документа "на лету" - задача не на одну пятилетку :)
позвольте поофтопить:
для большого сайта может и много ресурсов надо, но вот для отдельной страницы - вовсе нет.
взять таблицу со свеми лексемами страницы с кол-вом вхождений каждой
лексемы раскидываются по семантическим полям
каждой "теме/тематике" соответствует всей кластер семантических полей
в какой кластер вошло большее количество вхождений лексем - та и тематика у страницы.
машинного времени тут не так много надо имхо (учитывая, что на морф. анализ его уже хватает :) ).
Получается что Google уже может, а Яндекс пока нет.
зато практически неразрешимая в настоящее время проблема построения адекватной модели - начиная с технической задачи - необходимости сопоставить каждую известную в языке лексему семантическому полю, заканчивая определением набора семантических полей и их кластеризации по темам/тематикам.
Это скорее проблема наличия ресурсов, дешевого железа у поисковика.
вся эта байда назавается "семантический анализ" и довольно активно используется во многих специальных случаях (психолингвистический анализ, определение подлинности [авторства] документа при установленном авторстве эталонной коллекции документов). Только для каждой конкретной задачи составляется собственная модель, а для неконтролируемой коллекции документов замутить её слишком сложно.
так что адекватное определение темы документа "на лету" - задача не на одну пятилетку :)
Вот в Яндексе и упростили сведя все к каталогу.
Google, кстати, может тоже не ахти как. Ляпов с показом Адсенсом объявлений, скажет так, не совсем в тему - предостаточно. Ну, объяву не ту показали - это еще не так страшно. А вот когда нечто подобное начинает неадекватно влиять на алгоритм ранжирования - это уже гораздо хуже. Для качества выдачи.