Vladimir

Vladimir
Рейтинг
626
Регистрация
07.06.2004
Интересы
Photo
Smuel #:

За партнерские есть отдельный фильтр, здесь ранее уже выкладывали скрин. Он к МПК не относится. К МПК относятся продажные ссылки.

Может быть, сие не знаю.
Но, если исходить, что если не поделился с Я, то такой доход неправильный.... в МПК😂
Kseniya911 #:

Это как? 

Они у меня помещены в кнопку, но я так понимаю, что они все равно "видны"


<form action="......index.html" method="post">
<input....submit>

Smuel #:

Но только лишь из-за одних ссылок вряд ли фильтр наложат.

Из-за ссылок нет. Из-за партнерских ссылок
Kseniya911 #:

Сейчас сижу снимаю все ссылки...надеюсь поможет😭 фильтр с 18.09

Спрячь их в form

Mastic :

Пережили легкую ддос атаку. В итоге, из-за кривызны рук специалиста

Это норма для него, при таких специалистах. И которые советуют руками в консоль добавлять))
Поменять специалиста, настроить ответы сервера, будет несколько дней

os2biz :
Приветствую! Вопрос теоретический для понимания механизмов сео от новичка.
Представим что есть возможность писать руками по 500-1000 статей среднего качества в сутки, 5-7к символов
При этом сайт новый и не имеет ссылок на него. Это может какой-то вменяемый трафик дать?
Хватит и нескольких статей, но с условием
Valeratale #:

а может я должен контентом заниматься, а не "читать больше" про закидоны поисковых систем?

Мы, владельцы сайтов, тут сидим просто потому что не понимаем что делать и пытаемся делиться опытом с этой дуростью от Яши

Если вы как владелец сайта желаете заниматься только контентом сайта
И не хотите ни изучать, ни заниматься ни SEO, ни анализом, ни техническими ошибками сайта - тогда, что вы делаете в этой теме? Нанимайте специалистов, которые вам это сделают

MihailIsmailov2021 #:

Самое главное комментарии в блоге они закрыли, потому что на них сразу ушат фекалий полились

На фекалии, они такими же ответами отвечали, им не привыкать.
Там достаточно много было технически правильных вопросов, вот из-за них они и закрыли

DragonDesign #:

" robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей " - если я закрыл пагинацию в robots.txt- это нормально и достаточно или в страницах типа ?page=2 еще прописать метатег robots с noindex?

Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!

- метатег robots с noindex
- ?go=http://url-spamera Несмотря на закрытие в robots.txt, яндекс это г индесирует, а зачастую выкидывает из поиска страницу каноникал. Через время, извините исправился. Но если сайт большой, и такого спама много. Таких дублей в индексе много

Valeratale #:

То есть есть некая тема на форуме.. в которой представителя яндекса слили инфу, что теги надо убирать из поиска? но при этом яндексойды стесняются об этом написать где-то у себя в блоге и вебмастере

У вас каша в голове, читайте больше. И не валите все на стеснительность Яндекса

Pavel_C #:

Редирект под запретом?!

Нет, или вам нужно все варианты расписывать? Сами гуглить не умеем?
Pavel_C #:

Теперь вдруг по мнению яндекса это все стало плохо плохо и жуткими дублями.

Пришлось позакрывать через роботс,  каноникал и метатеги большую часть структуры сайта (а то же облако тегов было накоплено за несколько лет очень большим и многие посетители этим пользовались). 

"это рекомендации, а не правило." - для яндекса это рекомендации?

вообще никакой сайт нельзя сделать правильным (по мнению яндекса)

Изначально писал, что тэги, облако и прочее это дубли. Для всех это стало ясно лет 10 назад

Не для, а у  всех ПС это рекомендации, тема на серче была, ищем читаем, там все раскрыто.

Можно, у вас должен быть сайт со страницами 200, все остальное 404


Valeratale #:
Сколько это дней  - 8 дней, чтобы удалить 4к статей

Если вам делать нечего, я тут при чем?

Deus Machina #:

Миллионы страниц качественно создать невозможно. Жизни не хватит.

можно 10 миллионов создать качественно, и все в индексе будут))
Всего: 9108