Упрощенную, конечно же.
Ну вот у меня есть клиенты с серьёзными проектами на тильде. Динамических страниц на PHP там, конечно, нет - но оно им и не надо. Тексты со всякими описаниями редактируются непосредственно в тильде, вставка JavaScript там допускается (это что касается яндекс-карт, слайдеров и прочих js-плагинов), ещё айфреймы используются. Клиенты вроде бы не жалуются. Хотя лично моё мнение - надо делать сайты на нормальных CMS, если финансы позволяют.
ТС спросил про конструктор, поэтому какой смысл сравнивать конструктор с динамическими CMS? Ясное дело, что у конструктора возможности урезаны.
При чём ту консоль? И зачем мне это проверять? Я это и так знаю. В консоли не тот контекст, это специальный инструмент для вебмастеров. Это практическое применение консоли, не более того. А индексирование ссылки с чужого сайта - это практика именно индексирования ссылки с чужого сайта, а никакая не теория.
Чем это не практично? Очень даже практично.
Это всего лишь Ваше личное мнение, основанное на каком-то Вашем личном опыте. Лично я ставлю ноуиндекс и не парюсь, если мне надо надёжно запретить индексацию. Роботс - это для страниц, которые генерируются собственным сайтом и где контент предсказуем.
Ладно, будет. Соглашусь. Но страница всё равно может быть проиндексирована. Поскольку директивы файла роботс не запрещают индексирование.
И у меня, и у вас, и у всех остальных. И в отличие от Вас, я опираюсь не только на свой личный опыт, но и опираюсь на опыт других людей, и, самое главное, на официальную документацию Гугла:https://developers.google.com/search/docs/crawling-indexing/robots/intro
Ноуиндекс рулит.
А Вы и не ТС.
В моих цитатах ни слова про сервер. Странная у Вас "логика".
И что? Кто-то считает иначе? Зачем Вы мне это пишете?
Я, кстати, где-то выше написал, что это ТС думает, что ему не нужны гет-параметры. А потом выяснится, что они нужны.У меня буквально пару месяцев назад была ситуация: тот, кто когда-то делал сайт, поставил запрет на доступ к страницам с гет-параметром. А мой клиент вдруг решил провести рекламную компанию - и о ужас, ссылки не открываются! Обратились ко мне, чтобы я всё переделал.
Ну, то есть ответа на вопрос вы дать не можете, верно?Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?
Я дал ответ выше. Повторять не собираюсь. Читайте и осмысливайте, там всё ясно написано. Если ссылка размещена на стороннем ресурсе, то никто ваш роботс с вашими запретами даже читать не будет. Хоть пять раз болдом выделяйте, ничего от этого не изменится.
И да, в том, что я "накопипастил", как Вы изволили выразиться (хотя на самом деле я процитировал, а не "накопипастил"), гугл написал как раз противоположное тому, что написали Вы. Или Вам красным цветом выделить, чтобы понятнее было?
Всё, нафиг. Тот, кто умеет читать - прочитал. Я написал не только для Вас. А с Вами дальше дискутировать не собираюсь, ибо бесполезно, судя по всему.
Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.