- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Вы считаете пессимизации за большую "тошноту" нет?
Этой самой пессимизацией называют все подряд, даже алгоритмически совершенно разные вещи.
Елистратов как именно вы это определили?
Тоесть как я опредилил, что склейка появилась раньше Непота?:) Тупой вопрос...😂
Этой самой пессимизацией называют все подряд, даже алгоритмически совершенно разные вещи.
Не бейте, я не математик...
Хм-м, я считаю, что формула текстовой релеватности - функция линейная, соответственно, чем больше ключевиков - тем лучше.
Может быть в какой-то момент она выходит на насыщение, т.е. дальнейший прирост ключевиков уже ничего не дает...
ИМХО:
Яндекс формулу подредактировал, и ввел условие типа "если". Если "тошнота" больше, то ... пессимизация.
Для практического применения в продвижении сайта такая формула вполне подходит
Вы считаете пессимизации за большую "тошноту" нет?
Именно так.
Одинаковые ссылки могут лишь не учитываться, но никак не понижать ссылочный вес. Т.е. ситуация, когда стоит одна ссылка с жирной морды и дает какой-то вес 200 у.е., ставится еще 200 ссылок с каталогов с таким же анкором и общий вес от этого снижается с 200 у.е. до 100 у.е. - в принципе такая ситуация невозможна, иначе легко опускать конкурентов.
Вот интересная ситуация.
Хорошо, тогда такой вопрос:
Если стояла хорошая ссылка с морды в 200$ и появилась такая же в 5$, то по логике, вторая не учтется или склеится с первой в ее пользу.
Почему бы тогда не перекрыть конкуренту воздух, предсказав его будущее продвижение и пока его внешние ссылки сырые не проставить ему по 1$ прямых всех его анкоров, дабы потом его ссылки в 200$ не учитывались?
А значит, опять же по здравой логике, если Яндекс и склеивает одинаковые ссылки, то в приоритет ставит более авторитетную, только здесь навряд ли иметь место будет 1 одинаковая к 1-ной, скорее условная формула:
пусть 10 ссылок одинаковы, значит вычисляем их общий вес и делаем минимальный порог прохождения учитывания, через который часть ссылок самых мощных останется, часть леваков просто не учтется.
Почему бы тогда не перекрыть конкуренту воздух, предсказав его будущее продвижение и пока его внешние ссылки сырые не проставить ему по 1$ прямых всех его анкоров, дабы потом его ссылки в 200$ не учитывались?
А еще лучше десятка два ссылок по 0,02 - 0,03 уе, что бы уже наверняка 😂.
Вы считаете пессимизации за большую "тошноту" нет?
Что вы под пессимизацией подразумеваете? 😂
А еще лучше десятка два ссылок по 0,02 - 0,03 уе, что бы уже наверняка 😂.
Если предположить что ссылки сравниваются не только по анкору и весу, а по другим параметрам (место нахождение, наличие обратной и др.) Я думаю, что не учитываются одинаковые ссылки с одинаковыми параметрами, а не просто ссылки с одинаковым анкором.
порог прохождения учитывания
Хорошо сказал, улыбнуло. :)
Вот интересная ситуация.
Хорошо, тогда такой вопрос:
Если стояла хорошая ссылка с морды в 200$ и появилась такая же в 5$, то по логике, вторая не учтется или склеится с первой в ее пользу.
Почему бы тогда не перекрыть конкуренту воздух, предсказав его будущее продвижение и пока его внешние ссылки сырые не проставить ему по 1$ прямых всех его анкоров, дабы потом его ссылки в 200$ не учитывались?
Как я понимаю слейку, если вес сссылки с первой морды будет, допустим 1000у.е., и вес ссылки со второй морды будет 10у.е., по после склейки сумарный вес будет не 1010у.е., а 1008 у.е., например. Поэтому очередность появления ссылок в индексе неважна, и каждая следующая по логиге приносит только пользу >=0у.е.