Garnet_Fox

Garnet_Fox
Рейтинг
62
Регистрация
24.08.2012
sanek1991:

Второй запрос - с обычным User-Agent-ом браузера

Упущеньице, а уверены, что механизм проверки, в случае одинакового контента для зашедших из пс пользователей и для робота остался таким же как был? Сейчас эксперименты популярны и в таком случае на выходе можно получить клоаку за любое деление аудитории на бекенде.

Unlock:
Заоблочный ПФ это что? 10% отказов по Метрики и 5 минут на сайте - ББ засел и непонятно как вообще избавляться.

У меня 9% отказов, при таком же времени, сидит на морде, 1.5 месяца попыток найти компромис пока ни к чему не привели, причем снимал ББ весной, переписал текст, нормально продержался месяц, потом все по новой. Текст вылизан, убрать его возможности нет, не могу я одними ценами пф-ы тащить.

Значит надо 5% отказов, а лучше 0, и время до 10 минут увеличить, весь негатив отвалиться 😂. Я упрощаю про пф, Вы же знаете, там идет комплекс факторов, известных только алгоритмам яндекса.. Что-то ему в заголовке не понравилось, еще что-то в тексте, ну он прикинул отношение к отказам и времени на аналогичных из топа, и отправил в пешее эротическое, искать выход из ситуации, сняли негативный фактор, он снова прикинул, ну да вроде теперь вписываемся, поехали вверх. Алгоритму уже 1.5 года, но суть его становится только запутаннее и еба..тее.

sanek1991:
Клоакинг, по определению, это когда посетителю и роботу выдаются разные страницы.

Так вы на пхп по рефереру и юзерагенту будете отдавать пс и пользователю одинаковый контент.

sanek1991:

Какая разница, как это называется, сайт должен продавать сейчас, а не гадать что будет потом и будет ли вообще.

Вы меня не услышали, если убрать проблемный контент, после резкого роста и выхода, может начаться постепенное проседание трафика не только по проблемным ключам.

sanek1991:

Не думаю что Яндекс или Гугл такие тупые, что-бы не понять какой текст убран.

Это домыслы, факт в том, что это не клоакинг. Есть два временных решения на js и на php, и в обоих случаях - текст для пс убран, и в случае с js это не клоакинг, вы сами это уже делали, а в случае php, у вас, почему-то это именно так.

И то и другое - это костыль, в случае js сколько пройдет времени прежде чем, сам знаете кто, начнет понимать ескейпный код? К тому же, мне кажется, что проблема Бадена лежит несколько глубже, и скрытие текста это не решение проблемы в перспективе, Баден будет возвращаться. имхо, Баден это пф + жадность Яндекса, пф должен быть заоблачным, что бы жадность яндекса не начала понижать сайт, сводя количество трафика к уровню траста сайта (т.е. смысл идеи в чем, затыкаем баден в одном месте, вылезет в другом, или не вылезет, но за счет убора текста, или "спамности" по мнению Я, вы получите менее уникальный контент, это раз и отвалятся нч, это два, что уменьшит трафик и в том и в другом случае), находя в тексте слова, даже не обязательно ключи, которые потянут стеки запросов вниз. Но, это мое имхо, не судите строго :)

sanek1991:

Ему что показывать?

Показывайте версию, которая больше нравится.

Яндекс говорит:

"На своем сайте я провожу эксперимент: одной части аудитории сайта показывается одна страница, другой части — измененная страница. Так я определяю, какой вид страницы больше нравится посетителям моего сайта. Это считается клоакингом?

Нет, так как в данном случае не происходит обмана посетителя сайта или поисковой системы. Важно, чтобы пользователь, перешедший на ваш сайт из поиска, получал тот контент, который он и ожидал увидеть."

СПб, коммерция, в топах шлак быстроробота из других регионов, началось еще вчера по моему, опять сломали что-то.

А вот вопрос у меня, региональность обновление нынешнее не затронуло, не замечали? Я по коммерции смотрю, в СПб, по запросу сайт резко вниз начинает идти, да не по одному, иду в гуль, вбиваю запрос, а там в топах зачастую стоят сайты Мск, причем с таким дизом, что ё.. даешься, я до проседания внимания может не обращал... дописываешь к запросу СПб, все на месте, всё в топах, только общая динамика трафика что-то совсем радовать перестает.

aleksandrbol:
пропали быстрые ссылки

Появились быстрые ссылки, пропали полтора месяца назад

Сегодня был АП, 9 марта зашло

Ребят, назрел вопрос , пока, слава богу, чисто академического характера, ну просто что бы быть в курсе..

Если на сайт накладывается хостовый баден, то исключение страниц, которые вызывают фильтр <meta name="robots" content="noindex"/>, поможет в выходе из под фильтра?

И еще вытекающий вопрос,страницы, которые имеют вышеупомянутый мета тег noindex, обходятся роботами Яндекса? и можно ли за такие страницы получить хостовый баден?

Спасибо за помощь, действительно, судя по всему решение на чистом css, только в будущем, когда у большинства юзверей будут браузеры с поддержкой флексбоксов. Мне хотелось услышать мнение, реально ли вообще такое, и я его услышал.

ziliboba0213, Офервловом я тоже думал решить, но нижняя граница блока выпадает, а она у меня там еще и с радиусом, дизайн получается обрубленный, поэтому тоже, к сожалению, не в кассу.

Года пол назад, как раз на нем и реализовал, но это костыль всё-таки...

Хотелось бы элегантного решения средствами css, если это возможно конечно... ) Собственно даже вопрос наверное не как, а реально ли вообще?

1 2345 6
Всего: 54