- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Neo00007, уже решил, там специфическая настройка мешала, не эта.
---------- Добавлено 18.10.2016 в 22:28 ----------
По отделению текста различных языков есть неплохой материал на хабре с примером по нейронкам. Можно обойтись без нейролиб, но для этого придется снять матрицы специфических процентов входений букв и слогов для кадого языка и по ним определять.
Пришел к интересной мысли: если воссоздать механизмы поисковых фильтров и подключить к ним ГА, генерирующий серию поколений алгоритмов, то можно отсеять наиболее жизнаспособные варианты генерации. То есть по сути я перевожу эксперимент по созданию и бану сайтов ПС на более короткий таймфрейм, там где при обычном подходе системе для накопления необходимой информации нужны годы создания сайтов и анализа причин их бана при моем подходе эти данные могут быть получены за один проход системы и время ограничено лишь производительностью аппаратной части и оптимизацией кода, что на данном этапе представляет основную задачу.
---------- Добавлено 22.10.2016 в 14:12 ----------
PS похоже генерация сайтов не самое оптимальное применение для технологий подобного уровня.
То есть по сути я перевожу эксперимент по созданию и бану сайтов ПС на более короткий таймфрейм
Интересно. Но следует учесть тот факт, что немалый такой массив фильтров Гугла применим только для сайтов с трафом и на своих тестовых пачках доров без посещалки ты их отследить и проанализировать не сможешь.
Проще говоря - даже очень топорно сделанные доры без трафа могут довольно долго жить без бана, но отлично сделанные доры, которые демонстрируют отменную динамику ежедневного прироста трафика (как правило параллельно с ростом индекса), банятся Гуглом на ура.
То есть, по достижению определённых значений индекс/посещаемость, доры резко становятся интересны Гуглу и он подключает к их проверке дополнительные алгоритмы, которые до поры до времени были не задействованы по причине банальной экономии ресурсов.
У-ф-ф... Эко я выродил 😂
Экономия ресурсов не при чем, у Google их достаточно, в общем виде фильтр ПС - это нейронка, на вход которой подаются данные сгенерированные различными ГА, и если поколение банится, это означает что алгоритм генерации не проходит фильтр, а не проходит потому что не достаточно вариативен, отсюда вывод, если сайты банятся значит у алго их генерации недостаточно степеней подвижности для преодоления давления отбора, вот напрммер статьи на сайтах появляются все и сразу, а исчезать статьи могут? в типичной технологии - нет, повляются все сразу, а постепенно, а скачками, шаблон может смениться - нет, итд. Но в итоге дело даже не в этом, сайту нужно доказывать ПС что-то, а на это нужна статистика, на ее набор нужно время, бан = время на перезапись одного бита в базе - доли миллисекунды, а на получение позиций и трафика сколько нужно времени? У сайтов нет времени, а у ПС оно есть, отсюда вывод - варьироваться должн не только мезанизмы обхода фильтров но и сами источники трафика, если зависеть всегда от ПС - это проигрыш в итоге однозначно.
То есть, по достижению определённых значений индекс/посещаемость, доры резко становятся интересны Гуглу и он подключает к их проверке дополнительные алгоритмы, которые до поры до времени были не задействованы по причине банальной экономии ресурсов.
У-ф-ф... Эко я выродил 😂
Кац сказал не из-за экономии, а просто потому - что оценивать ранее нечего было. В твоем примере, если нет трафа то и не оценишь его(трафа) показатели на сайте.
Проанализируйте самые посещаемые небанящиеся и ПС-незвисимые ресурсы, но не позиции СЕО, а с позиции кибернетики, по степеням подвижности и вы поймете что нужно делать.
Кац сказал не из-за экономии, а просто потому - что оценивать ранее нечего было.
Возможно, сути это не меняет. Отследить и проанализировать всю совокупность алгоритмов бана на дорах без трафа не выйдет.
не позиции СЕО, а с позиции кибернетики, по степеням подвижности
Моя личность коллапсирует от таких фраз. Пойду перечитаю учебник "Кибернетика и основы анализа степеней подвижности для нубов от А до Я" :)
Моя личность коллапсирует от таких фраз.
Мб неэффективные попытки и потерянное в итоге коллапсируют личность куда сильнее таких фраз)
Моя личность коллапсирует от таких фраз.
Что такое, товарищи, дебют и что такое идея? Дебют, товарищи, это квази-уно-фантазия. Ну, это всем понятно.
А, что такое товарищи, идея?
Идея, товарищи - это человеческая мысль, облеченная в логическую шахматную форму (с)
plattoo, кстати неплохой пример алгоритма генерации читабельного текста)