- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Tecak, Теплое с мягким. Причем здесь новый домен. Речь о том, что гугл хранит все состояния всех доменов. Новый это другая тема. И да гугл хранит. Что и в каком виде и как это ранжирует - другой вопрос
А тебе не кажется, что ты сначала пишешь одно а потом другое?
Ты сказал про сайт. Я тебе сказал что при переносе забаненого сайта на другой домен, он опять проиндексируется.
Сайт. Домен. Чувствуешь разницу?
У тебя как-то странно связан в мозгу домен с контентом...
Tecak, Все ты прав про домены и сайты (кстати, слово "сайты" я до этого не упоминал). Я с тобой согласен
Ты не прав здесь:
если бы гугл хранил все сайты, которые когда-либо сканил его бот, он бы просто охренел...
А про практическую точку зрения спорить не буду
Сравнить с последней сохранённой копией из кэша, не?
Логично. Но кэш - это как бы "законсервированные данные", и Гугл их держит в уме.
Сомнительная заповедь. Для добротных коммерческих сайтов с вылизанными посадочными страницами она вообще не применима. Там просто нечего обновлять и незачем.
Почему же? Изменение цен, наличие/отсутствие товара, скидки могут появляться, комментарии. Даже банальная накрутка соц факторов (лайков,share и т.д). Если быть буквоедом, то это тоже "обовления сайта".
Гугл ничего не забывает. Имхо :).
И по дору - нет смысла хранить все 100500+ одинаковых страниц дора. Ибо достаточно положить в копилку "слепок" шаблона и десяток тысяч страниц для контроля. Естественно в онлайне подтягивать эти данные сразу же несколько проблемно. Потому вполне мб, что выкинутый из выдачи сайт зайдёт туда под другим доменом. Но при подробной проверке - его выкинут. Скорее всего за то же самое, за что выкинули прошлый раз. Но могут и сравнить со "слепком" - это быстрее.
Чаще всего выкинутые сайты банятся ещё быстрее потом.
Ну и повод для накопления - чем больше база - тем удобнее обучать алгоритмы. Потому выкидывать уже проиндексированное и проанализированное - смысла нет, даже если это дор и ему выписан бан :). Ведь основная работа уже проведена и боты отработали - осталось просто архивировать и сохранять, пользуя по надобности.
прочитав 16 страниц полезнейшего контента, я понял, что сейчас все бабки в капчах! надо админиам писать, что бы отдельный раздел создавали про капчестроение!
Но могут и сравнить со "слепком" - это быстрее.
Допустим у тебя есть какие-то лекала по которым ты приходишь к какому-то умозаключению(например в качестве лекала на этапе обучения может выступать какая-то статья). В следующий раз когда ты будешь использовать эту мысль, эти самые лекала уже тебе не нужны, т.к. твоя мысль, можно сказать, уже "вычислена", ты обучился. Тебе на надо каждый раз тужиться "вычислять" её заново. Так же на основе уже имеющихся знаний и новой информации ты можешь сделать новые умозаключения, они действуют аддитивно.
Поисковая машина действует так же. По началу может её обучал человек, указывая какая страница спам какая не спам. Дальше в процессе работы она уже сама обучается в боевых условиях. Чем больше дорвеев она банит, тем больше она обучается. Возможно даже сами создатели уже не понимают по каким признакам она вычисляет спам. Так, что ни какие слепки ей не нужны, если машина обучилась - то она обучилась.
А не важно :).
Возможно даже сами создатели уже не понимают по каким признакам она вычисляет спам
Понять можно, нейронку выгружают в список весов и видно какой признак "срабатывает" наиболее часто, иначе процесс обучения станет сложноконтролируемым, на многослойных сложноорганизованных должен быть спецсофт под анализ корелляций, но обратная связь нужна в любом случае.
В распознавании искаженной тектовой графики имхо смое сложное - это разделение на символы, отдельный символ по сетке не так сложно распознать, думаю самая перспективная сфера - это распознавание сложных объектов, а символы это по сути тот же текстораспознаватель для настольного сканера, только работающий с более зашумленным входом.
MO $$$, Почитай тут про самообучение. https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B1%D0%B5%D0%B7_%D1%83%D1%87%D0%B8%D1%82%D0%B5%D0%BB%D1%8F
---------- Добавлено 28.01.2017 в 03:28 ----------
Понять можно, нейронку выгружают в список весов и видно какой признак "срабатывает" наиболее часто, иначе процесс обучения станет сложноконтролируемым
Не всегда можно понять 🍿 https://geektimes.ru/post/281998/
Похоже на то что я называл обучением методом последовательных сопоставлений, биологический аналог - импринтинг в нейрофизиологии, когда известен только конечный результат, далее подается вход, нейронка выводит гипотезу, подает сама себе на вход в сумме с начальным условием, - анализирует полученный результат и его эффективность, и так в цикле пока не отработает условие рузультата - цели, то есть не произойдет импинтирование на определенный раздражитель, составленный из суммы входа и реакции системы, реакция запоминается как наиболее оптимальная стратегия достижения результата.
---------- Добавлено 28.01.2017 в 05:23 ----------
Не всегда можно понять
Вообще я привел идеализированный вариант, на практике действительно не всегда получается понять что делает программа, если сложная то иногда очень сложно разобраться чем занимается алгоритм в данный момент, поэтому думаю нужно соврешенствовать методы обратной связи то есть интерфейсы.