Mazay

Mazay
Рейтинг
157
Регистрация
07.11.2009
JJwar #:
С сайтом работают профессиональные программисты, какое задание им поставить ?  Удалить все учётки пользователей? А как сайт будет функционировать без возможности зарегистрироваться на нём ?
Убрать обход по Метрике. Так как в данном случае он вреден. И заблокировать ненужное в robots. Как это и рекомендует яндекс. Мусорные страницы будут иногда проверяться ПС на предмет наличия какой-нибудь чернухи. Это не столь вредно, как то что сайт сделан на скриптах. Скриптованные сайты не особо перспективны для сео.
romancher #:
Ну это юмор какбэ, неужели не понятно? Но тема же про вложение денег?  Золото оно и через сто лет будет золотом

А медь - медью. Платина - платиной. Дело в том, что деньги превратились в цифры. Которые все меньше и меньше привязаны к какому-либо металлу...

Devstory #:

Ну почему же она его до сих пор не выгнала ? Значит есть то зачем он ей нужен. 


Нужна только статейка для блога под кликбейтную тематику. Наличие мужа для "девушки" в этом случае вовсе даже необязательно )

Юлия #:

Отвечу, как не должны. Сегодня читала историю одной девушки-блогера


Да вы с любой встретившейся "девушкой" разговор заведите - она вам и не таких историй нарассказывает ))

Юлия #:

Можно было вернуться к родителям... Хотя, о чём это я? 


Помню, жена моего приятеля с маленьким ребенком вернулась к родителям. Из-за того что вечером после работы он пил пиво.

Так через три дня родители выгнали её обратно, объяснив что причина для возвращения ничтожна ))

Юлия #:

Я говорила о том, что люди часто говорят нам о том, что любят. Убеждают в этом. Давят на чувства. Но на практике это никак не подтверждают.


А как именно должны подтверждать? )

JJwar #:
сайт вообще на скрипте написан, как бот вообще находит ссылки эти - я не понимаю, не прогер я
Для Яндекса - включен обход по Метрике. На скриншоте это есть.

JJwar #:
Как это не будут ходить, мне показалось что ли 61к  заходов ? См. скрин


Это количество страниц на сайте, которые нашел Яндекс.

А сам он пишет вот что:

  1. Добавьте директиву Clean-param в файл robots.txt . Она позволяет указать роботу на нужный URL среди дублирующих — нагрузка постепенно снизится. Также директива дает возможность передавать основному URL или сайту некоторые накопленные показатели.

    Чтобы быстро снять нагрузку от робота, добавьте директиву Disallow в файл robots.txt . Робот перестанет обращаться к указанным страницам в течение суток после внесения изменений в файл.


https://yandex.ru/support/webmaster/ru/robot-workings/load-robots?lang=ru

JJwar #:
в роботсе я запретил, но яндекс-бот всё равно к ним обращается
Ну и что? ПС в любом случае проверяют, нет ли какой чернухи на сайте. 
Vladimir SEO #:

правда гугл этого и не заметит )))) они и так ращедрились и бросили кость в виде бесплатного поиска,  работающих карт  и др сервисов


Таких костей накидали сотни. Одних вон автозаводов только 13 штук. Не говоря уж о прочих. Ветроэнергетика под ключ, Макдак, вся лизинговая техника в подарок...

А только нас всем этим не запугать. Не на тех напали )))

Всего: 1130