- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Коль, а в итоге? Топы наши, а не их!!!!
По запросу Цветы - продажа цветов
По запросу вазы (для цветов) - машины
и так далее
Пусть ржут дальше
А кто спокойней спит и кому легче смеяться? :D
А кто спокойней спит и кому легче смеяться?
продолжаем....
а кто больше зарабатывает?
Однозначно замечена разность в использовании ссылок с жирных сайтов и с среднежирных сайтов, в зависимости от тематики.
Я тоже заметил ;) Ссылки с жирных морд работают лучше, чем со среднежирных 🚬
Умножаем "доли секунды" на количество сайтов РУнета и получаем..?
Даже не на кол-во сайтов рунета, а на число проиндексированных документов. Которое, как известно, чуть больше 2 миллиардов. Далее умножаем 0,1 сек. на 2 млрд. - получаем 2314 суток. Или около 6 лет.
Понятно, что процессы можно (нужно) проводить параллельно, но масштабы бедствия от этого не уменьшаются.
Я тоже заметил Ссылки с жирных морд работают лучше, чем со среднежирных
Ага, особенно когда количество жирных такое же как количество среднежирных :)
Пардон, а о чем спорите? Яндексоиды осенью в кулуарах только и трендели о том, что автоматическая фильтрация вводится. Вот она и заработала в полную силу. Ноябрь - первый удар, январь - второй, апрель - третий. В промежутках кручение ручки влево-вправо.
Определение тематики подразумевает использование определенного семантического ядра. И если это нормальный, связный текст, а не простое перечисление драгоценных минералов и металлов, то проблем с определением тематики не будет. Опять же, кто сказал, что у каждого текста должна быть строго одна тематика? Если текст новости об ограблении ювелирного магазина, то она относится как к криминалу, так и к ювелирному делу.
Аха... Ну-ну... О, великое семантическое ядро... Барона Мюнхгаузена сюда нуно - он объяснит что к чему и как енто юзать... На одной тематике - 20 существительных и 50 прилагательных, на другой - наоборот... Многообразие, сочетание рубрик и текстов может быть какое угодно. Новости, история, виртуальная добыча какого-нибудь левиума на спутниках Урана (Э.Гамильтон) и использование изотопного жидкого золота в чаеразвесочных Урюпинска. А тематика может быть одна - "Что подарить любимой женщине на 8 Марта". И поди-разберись-куда-и-в-какие-тематики засунуть всех контрагентов сайта...
Думаю не стоит путать реальность и то, что "может быть". Вы говорите исключительно о себе, но реальность совсем другая. Вот если завтра все вебмастера начнут так кидать ссылки из угла в угол, тогда изменится реальность и появится новый признак - постоянное изменение месторасположения ссылок на странице, без изменения их состава. И будет это трактоваться, как однозначно неестественное поведение, а значит - имеющее искусственную природу.
Да-да-да! ОРАКЛовскую крутейшую двадцатисемимерную базу данных по гипердинамике нечётких временнЫх образов! Это уж точно поможет определить искусственность контента. За месяц по сто пятьдесят паттернов для миллиона сайтов, каждый из которых - по сотне-другой страниц... Ничего, интеловский восьмиядерник разберётся... За пару лет...
Этот признак относится скорее к автоматизированным системам установки ссылок. К тому же я указал, что он весьма неоднозначный и сам по себе использоваться не может.
Да что Вы говорите... А, как мне кажется, это всеобщая тенденция - структурное качество ссылок. И от их природы не зависит. Да и откуда привнести эти правила - что естественное, что заказное, что купле-продажное... И т.д. и т.п.
Например, сайты сугубо научного профиля вообще лучше не трогать. Хотя бы потому, что, извините, цитирование как таковое, пришло именно из научного мира. И вот представьте... Появляется некий удачный веб-ресурс перспективной научной тематики... Его, естественно, начинают цитировать научные веб-мастодонты. Один, второй, третий... И, казалось бы, это должно иметь должный эффект - продвижение этого самого нового веб-ресурса "на верха". Ан нет... Нетю... Ох, уж этот Яндекс с его экспериментами...😆
Знаете, други, сейчас Яндексоиды ржут, наверное, над нами дважды. Сначала по нашей тупости, потом - по нашей глупости. Потому что выкладываем вещи, над которыми должны думать они, а не мы.
Посему предлагаю разбежаться из темы - по праздникам, делам, любименьким, деньгам и весенним денёчкам-с.
С Первомаем!:)
Даже не на кол-во сайтов рунета, а на число проиндексированных документов. Которое, как известно, чуть больше 2 миллиардов. Далее умножаем 0,1 сек. на 2 млрд. - получаем 2314 суток. Или около 6 лет.
Закон Мура кажется еще не отменяли. ;)
1. Все равно, эти 2 миллиарда, уже(!) скачаны и про индексированы.
2. Не на всех страницах, из 2 миллиардов, есть внешние, ведущие не на "пузомерки" и т.п.
3. "Отвал" каталожного, скорость индексации новых ресурсов и проблемы с зоной .info - тоже дают пищу для размышлений.
4. Разделение на "топовость", имхо, тоже проглядывается.
Типа Лента.ру, Травел.ру, SQL.RU и др...
5. Привентивные источники так же существуют.
... но масштабы бедствия от этого не уменьшаются.
... но и шаги в этом направлении предпринимаются.
Все сказанное, только ИМХО....
Закон Мура кажется еще не отменяли. ;)
Как и уравнения Коши-Римана :)
Как и уравнения Коши-Римана :)
"Человеческий фактор" не возможно описать уравнениями, тем более в противостоянии "Снаряд-Броня"...;)
nickspring, чтобы Вы вдруг не пропустили:
Ерунда, параллельно с индексацией, нагрузка незначительна...
Даже не на кол-во сайтов рунета, а на число проиндексированных документов. Которое, как известно, чуть больше 2 миллиардов. Далее умножаем 0,1 сек. на 2 млрд. - получаем 2314 суток. Или около 6 лет.
Понятно, что процессы можно (нужно) проводить параллельно, но масштабы бедствия от этого не уменьшаются.
:)
di_max, если б всё было так не сложно, и привязывалось к использованию тех неведомых (честно) для меня законов и уравнений, то уже давно было бы сделано, не так ли?
"Человеческий фактор" не возможно описать уравнениями, тем более в противостоянии "Снаряд-Броня"...;)
А если прямо пропорционально: чем толще броня, тем толще должен быть снаряд? :)