- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Много, ну очень много разговор ходит по дублям, как от пользователей так и самим яндексом.
Дак вот предложения Яндексу:
Сделать такую же фиче как по уникальности контента, сделать так что бы вебмастера могли загружать только те страницы какие они хотели бы видеть в поиске.
Ну вот допустим я загрузил карту сайта в ЯВ у меня там одни урлы на статьи, а яндекс индексирует все.
А вот допустим я зашел бы ЯВ и ввел свои адреса которые хотел бы я увидеть в поиске и яндекс только бы их в поиск выводил, не, ну конечно если яндексу мои урлы с контентом не нравятся он бы их мог удалять по своим алгоритмам, но за то не индексировал бы всякие дубли и всякую хрень.
Как вам моя идея? просьба отписаться по теме
А если это "ненужное" закрыть в ноиндекс? Тогда на сколько я понимаю Яндекс не будет это кушать...
Большая нагрузка на вебмастера, хорошо когда у вас 100 страниц, но когда их 100.000, то это может стать проблемой... да и вообще ни к чему, есть же уже инструмент для того, чтобы сказать "это ешь, а это не трожь" :)
П.С. иль в robots.txt прописать чего нужно, а чего нет...
А если на сайте 100К страниц? ;)
Проще за пару минут в роботсе закрыть директории (типо архивов, тегов... или по маске).
Много, ну очень много разговор ходит по дублям, как от пользователей так и самим яндексом.
Дак вот предложения Яндексу:
Сделать такую же фиче как по уникальности контента, сделать так что бы вебмастера могли загружать только те страницы какие они хотели бы видеть в поиске.
Ну вот допустим я загрузил карту сайта в ЯВ у меня там одни урлы на статьи, а яндекс индексирует все.
А вот допустим я зашел бы ЯВ и ввел свои адреса которые хотел бы я увидеть в поиске и яндекс только бы их в поиск выводил, не, ну конечно если яндексу мои урлы с контентом не нравятся он бы их мог удалять по своим алгоритмам, но за то не индексировал бы всякие дубли и всякую хрень.
Как вам моя идея? просьба отписаться по теме
а что robots.txt отменили?
Какой смысл делать такой сервис если есть robots.txt? В котором можно запретить ненужные страницы.
Для того чтобы закрыть ненужное нужно использовать роботс.
А если на сайте 100К страниц? ;)
Проще за пару минут в роботсе закрыть директории (типо архивов, тегов... или по маске).
Ага..А еще када контен обновляется не 1 раз в месяц, а каждую минуту, еще и пачкой..
asmakovec2, basilic, dimarrik снайперы, блин)) 00:24
dimarrik, а что обновлять роботс скриптом очень сложно? :)
basilic, мистика😂
burunduk так разговор шел вроде как о карте сайта, хотя и ее можно обновлять, но зачем такой гемор..а про роботс я вроде ниче не говорил)
Не так меня поняли...Я как бы поддержал murvuz
Причем тут роботс, даже если я закрою в роботсе, а яндекс все равно найдет что то левое чтобы проиндексировать. А если я не особо знаком с той или иной CMS ? то мне лучше урлы прописать в ЯВ и все было бы норм
basilic, мистика😂
burunduk так разговор шел вроде как о карте сайта, хотя и ее можно обновлять, но зачем такой гемор..а про роботс я вроде ниче не говорил)
Не так меня поняли...Я как бы поддержал murvuz
та ну и пусть эти страницы будут в карте сайта. Их же всё равно не будет робот индексировать если закрыть в роботсе.