- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
XA-XAKER, если под фильтр и попадет небольшой процент естественных ссылок, выдача не ухудшится, и уж тем более в ней, как вы изволили выразиться, не наступит хаос. Статья бред, аргументы детские.
А при чем тут небольшой процент? Я о том, что невозможно определить програмно сайт от сателлита, а Вы мне о том, что под непот попадет "небольшой процент".
Вобщем, Ваша критика мне ясна, аргументы(а точнее их отсутствие) тоже:)
Не робот будет определять, нарушил сайт правила ПС или нет, а человек, который задаст команды роботу.
Когда человек пишет программу, что все цели будут выполняться программой. Суть в том, что нереально создать такую программу.
А при чем тут небольшой процент? Я о том, что невозможно определить програмно сайт от сателлита, а Вы мне о том, что под непот попадет "небольшой процент".
Вобщем, Ваша критика мне ясна, аргументы(а точнее их отсутствие) тоже:)
ТС запутался в своих изысканиях... "Автонепот: быть или не быть"... или "Я о том, что невозможно определить програмно сайт от сателлита".
нереально создать такую программу.
Не реальное возможно.. Почему же по вашему?
ТС запутался в своих изысканиях... "Автонепот: быть или не быть"... или "Я о том, что невозможно определить програмно сайт от сателлита".
А то, что первое является следствием второго, трудно осмыслить Вам?:)
Не реальное возможно.. Почему же по вашему?
Я свои аргументы привел. Что неясно Вам, я не могу понять. Высказывайте свое мнение о статье, приводите свои аргументы, критикуйте, я именно этого и жду.
P.S. На подобные вопросы я отвечать не буду.
XA-XAKER,
Я особо не знаток и критиковать мне не чего, я высказал свое мнение по поводу данного явления.
Мнение заключается в том, что нереальное возможно?:)
Вот Вы, ТС, в статье говорите о непоте в первую очередь как о фильтре на продажные морды, это не совсем так. Если Вы знаете, то термин "непот" был введен как фильтр на беспричинно ссылающиеся друг на друга сайты, типа ты мне я тебе, т.е. обмен, а не продажа.
Про Гугл. В Гугле не так мало автоматических фильтров, как нам может показаться. Я где-то читал, что Гугл автоматом определяет не только обмен, но даже короткие кольца. Это по Вашему не сложная задача?
Теперь об автоматизме и продажных ссылках. Конечно 100% автоматом не выявить продажную ссылку, но если сделать все грамотно, то большинство скорее всего можно пропустить, а не наоборот - попасть под нож нормальным сайтам.
Вот возьмите, например, биржу по продаже ссылок. Есть продавцы есть покупатели. Покупатель купил несколько ссылок с разных сайтов, продавец продал ссылки с сайта разным покупателям. Т.е. образуется два сообщества, которые интенсивно ссылаются одно на другое, в общем случае одно сообщество продавцов и покупателей интенсивно ссылающихся друг на друга.
Продажных сайтов не так много, по некоторым оценкам их меньше 5%. Как вы думаете возможно автоматом выявить 5-10% сайтов интенсивно ссылающихся друг на друга?
Вы говорили, скажите мне как программист программисту. Я Вам скажу, что зависит от программистов, которые решают эту задачу. Кому-то она может быть в полне под силу.
XA-XAKER, сателлит сателлиту рознь... Существование сеточного сайта не повод для накладывания санкций как таковых... Читай внимательно лицензию, когда на сайт могут быть наложены какие-либо санкции... Уже не раз обсуждалось как накладываются эти самые санкции и как их проверить... Поэтому статью считаю а-ля "небо голубое, но не салатовое"... Доводы просто смешные на самом деле...
1. Большое количество внешних - да хоть миллион... полно сайтов с органик беками в огромнейшем количестве!
2. Размещение ссылок - div, xsl, css могут сотворить чудеса...
3. Количество символов... дык можно большую часть скрыть от индексации с помощью javascript и обычной конкатенации... ртфм
4. Определение тематичности ссылки без ЯКи нереально... имхо
5. Доменную зону вообще в печку - читаем какие сайты индексирует Яша...
6. Количество страниц сайта - не понял к чему здесь непот вообще )))
имхо... учить матчасть, потом писать статьи...
P.S. Макс, в верном направлении путь держишь, но знаний пока мало... Всему свое время...