- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
На своем домене, я организовал портфолио по верстке. Соответственно, содержание таких страниц повторяет содержание страницы клиентов.
Что в моем случае будет правильно сделать, чтобы не навредить клиенту в плане поисковой оптимизации? Закрыть директорию с примерами работ на своем домене от выдачи в поисковых системах с помощью robots.txt или разместить rel="canonical" на страницах на своем домене на домены клиентов?
Считаю что оба варианта приемлемы.
тут вопрос в том хотите ли что бы эти страницы были в индексе. Если они несут полезную нагрузку.
К примеру, верстка адаптивная по такой-то тематике, что клиент может зайти через такую страницу тогда да. - но на сколько я понял это полное зеркало, пример.
так что если уникальности и полезности нет - закрывайте.
гугл все равно ее съест)
cannonical не вариант что даст полную уверенность. К примеру проблемы с первоисточниками многих вебмастеров обижают !!!
Гугл рекомендует второй вариант, хотя можно и первый. Канонический просто логичнее выглядит, вы не прячете свои работы, а наоборот.
У вас что, каждый пример портфолио - полный клон страницы заказчика? Или все таки скриншоты? Зачем вообще что-то закрывать, пишите в заголовке
Верстка сайта www .site.ru
и не будет никаких
Дело в том, что я размещаю примеры работ не на тематическом сайте. То-есть, это не мой сайт-визитка или блог, а сайт другой тематики с директорией портфолио/. Не навредят ли мне подобные страницы с контентом других тематик, пускай даже и с rel="canonical"?
ortegas, зачем ставить каноникал, для скопированного (фактически) содержания? Метатегами ноиндекс закройте страницы и все. В роботс закрыв, только от сканирования спасетесь, а не индексации.
так что из себя эти примеры представляют? Скриншоты?
blackcarrot, копии сайтов. Это делается для того, чтобы показать конечную работу, которую сделал я. Ведь клиент может вносить последующие правки, соответственно, это уже не может быть примером моей работы.
Выбрал для себя вариант <meta name="robots" content="noindex">.
rel="canonical" работает только в пределах одного домена.
Закрывайте от индексации любым способом какой больше нравится:
<meta name="robots" content="noindex"/> — не индексировать текст страницы
<meta name="robots" content="noindex, nofollow"/>— не индексировать текст страницы и не переходить по ссылкам на странице
или в robots.txt закройте этот раздел сайта
или заставьте страницы вашего портфолио 404 ответ сервера отдавать
или в robots.txt закройте этот раздел сайта
Этот вариант говорит роботу не сканировать директорию, а нужно исключать страницы из поиска, даже если они были проиндексированы по ссылке из других сайтов. Поэтому, только через META, как уже говорил easywind.
Этот вариант говорит роботу не сканировать директорию, а нужно исключать страницы из поиска, даже если они были проиндексированы по ссылке из других сайтов. Поэтому, только через META, как уже говорил easywind.
Когда сайт динамический и у этих страниц шаблон свой то тогда конечно проще через META запретить.
Если у этих страниц есть что-то общее в адресе то можно запретить их к индексации в роботсе по маске. Так проще будет.
А если адрес у них не отличается от других страниц сайта то можно поштучно в роботсе их Disallow.
Тоже самое что и через META запретить. Разницы в результате 0, отличие только в количестве телодвижений которые придется делать.