- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
"Какие-то так бновления" - это 27ап с момента релиза, трафик и правда субъективный показатель, настроек много, тематик тоже, а словами про апдейт я не более чем отвечаю на вопрос по сайтам-примерам, аргументируя отсутствие времени на их создание
Под бурж тоже генератор контента нормально будет работать или только под ру?
Для англоязычного контента осталось ввести отдельную настройку и сделать некоторые изменения, будет. Возможно это будет реализованно отдельным модулем, на данный момент вопрос открыт.
ПОД БУРЖ ИНТЕРЕСНЕЕ для меня
Сейас в процессе работы над софтом появилась идея встроить в него собственные алгоритмы проверки качества полученного контента, проверка по Ципфу уже есть.
усложняете-ссс.............
усложняете-ссс.............
без кофеварки и пылесоса в составе комплекса, выделиться на рынке будет сложно-с...
з.ы. ждем интеграцию синезуба и поддержку firewire
Такую опцию давно пора было ввести в фунционал, поскольку без нее пользователь лишен канала обратной связи, и потом, ввести эту опцию не так уж сложно.
А критика вполне ожидаема.
---------- Добавлено 30.09.2016 в 10:58 ----------
Без встроенного функционала проверок поисковой системе достаточно банить рандомом, дальше вы сами задумавшись над причиной найдете объяснение этму бану, формализуете алгоритм и включите его в свои обсуждения, дальше его можно будет описать программно и включить в поисковый алгоритм уже без рандома, оптимизированным таким образом.
Без встроенного функционала проверок поисковой системе достаточно банить рандомом, дальше вы сами задумавшись над причиной найдете объяснение этму бану, формализуете алгоритм и включите его в свои обсуждения, дальше его можно будет описать программно и включить в поисковый алгоритм уже без рандома, оптимизированным таким образом.
типа мы сами фишки палим гуглу на форумах?)
типа мы сами фишки палим гуглу на форумах?)
такой вариант тоже не исключен.
В целом, если взять комплекс параметров, такие как средний дневной прирост количества страниц, средний временной интервал в регистрациях доменов на IP, средний разброс по семантике кевордов, количество ветвлений структуры сайтов на сотню страниц и так далее, всего пармметров 20-100, снять по этим парметрам распределения, занести в алгоритм и... эта система забанит 99.9% сайтов сделанных по одной технологии. Типизированная технология неустойчива к статистическим фильтрам. Даже не анализируя пакетно критерии, взять одну лишь статистику TCP-коннектов сервера, если проанализировать стаистику посещений бота и запросов к поисковикам, выделить общее ядро запросов, то сразу же улетит вся динамическая технология. Работающая система должна быть более вариативной чем фильтр, если в фильтре 30 параметров, то система должна уметь менять сайты в пределах 60, что на практике довольно сложная в технической реализации задача.
По статистически фильтрам, типичный пример - проверка по закону Ципфа, пример реализацию котрой я выкладывал в теме.
И наверно мне скажут что я опять все усложнил..