webinfo

Рейтинг
306
Регистрация
22.01.2021
Had :
Какую версию выбрать для китайского варианта сайта?

Упрощенную, конечно же.

Антоний Казанский #:
Тильда был и остаётся онлайн конструктором для презенташек, скороспелых лендингов, А/Б тестов, домашних страниц и визиток.

Ну вот у меня есть клиенты с серьёзными проектами на тильде. Динамических страниц на PHP там, конечно, нет - но оно им и не надо. Тексты со всякими описаниями редактируются непосредственно в тильде, вставка JavaScript там допускается (это что касается яндекс-карт, слайдеров и прочих js-плагинов),  ещё айфреймы используются. Клиенты вроде бы не жалуются. Хотя лично моё мнение - надо делать сайты на нормальных CMS, если финансы позволяют.

ТС спросил про конструктор, поэтому какой смысл сравнивать конструктор с динамическими CMS? Ясное дело, что у конструктора возможности урезаны.

Алеандр #:
Я же написал выше, можете лично это проверить в консоли. И это будет не написанное в хелпе, а практическое применение. Я ориентируюсь именно на него, а не на теорию.

При чём ту консоль? И зачем мне это проверять? Я это и так знаю. В консоли не тот контекст, это специальный инструмент для вебмастеров. Это практическое применение консоли, не более того. А индексирование ссылки с чужого сайта - это практика именно индексирования ссылки с чужого сайта, а никакая не теория.

Алеандр #:
ноиндекс - вещь хорошая, но на динамических страницах с разными урл и одним содержанием - не практична.

Чем это не практично? Очень даже практично.

Алеандр #:
В обсуждаемом же случае закрытия дублей в виде get параметров - редко применимо и только роботс, в таких ситуациях - главное решение.

Это всего лишь Ваше личное мнение, основанное на каком-то Вашем личном опыте. Лично я ставлю ноуиндекс и не парюсь, если мне надо надёжно запретить индексацию. Роботс - это для страниц, которые генерируются собственным сайтом и где контент предсказуем. 

Алеандр #:
Будет, еще как будет.

Ладно, будет. Соглашусь. Но страница всё равно может быть проиндексирована. Поскольку директивы файла роботс не запрещают индексирование.

Алеандр #:
Так это у вас гугл умудряется страницы в индекс забирать без их сканирования ) Не у меня.

И у меня, и у вас, и у всех остальных. И в отличие от Вас, я опираюсь не только на свой личный опыт, но и опираюсь на опыт других людей, и, самое главное, на официальную документацию Гугла:
https://developers.google.com/search/docs/crawling-indexing/robots/intro

Если доступ к странице запрещен в файле robots.txt, она все равно может быть проиндексирована по ссылкам с других сайтов.
Google не будет напрямую сканировать и индексировать контент, который заблокирован в файле robots.txt. Однако если на такой URL ссылаются другие сайты, то он все равно может быть найден и добавлен в индекс. После этого страница может появиться в результатах поиска (во многих случаях вместе с текстом ссылки, которая на нее ведет). Если вас это не устраивает, рекомендуем защитить файлы на сервере паролем или использовать директиву  noindex  в метатеге или HTTP-заголовке ответа.

Ноуиндекс рулит.

Алеандр #:
Не выяснится ) Поскольку я точно знаю какие параметры урл мне необходимы

А Вы и не ТС.

Алеандр #:
Наверное потому, что в ваших цитатах именно об этом и речь: гугл принимает роботс как правила, по которым ему указывается, какие страницы запрещено сканировать, а не отсканировав, он их ну никак не проиндексирует. Л - логика.

В моих цитатах ни слова про сервер. Странная у Вас "логика".

Алеандр #:
Получать страницу без посещения сервера он пока еще не научился.

И что? Кто-то считает иначе? Зачем Вы мне это пишете?

Vladimir #:
индексирование по utm метке

Я, кстати, где-то выше написал, что это ТС думает, что ему не нужны гет-параметры. А потом выяснится, что они нужны.
У меня буквально пару месяцев назад была ситуация: тот, кто когда-то делал сайт, поставил запрет на доступ к страницам с гет-параметром. А мой клиент вдруг решил провести рекламную компанию - и о ужас, ссылки не открываются! Обратились ко мне, чтобы я всё переделал.

Алеандр #:

Ну, то есть ответа на вопрос вы дать не можете, верно?
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?

Я дал ответ выше. Повторять не собираюсь. Читайте и осмысливайте, там всё ясно написано. Если ссылка размещена на стороннем ресурсе, то никто ваш роботс с вашими запретами даже читать не будет. Хоть пять раз болдом выделяйте, ничего от этого не изменится.

И да, в том, что я "накопипастил", как Вы изволили выразиться (хотя на самом деле я процитировал, а не "накопипастил"), гугл написал как раз противоположное тому, что написали Вы. Или Вам красным цветом выделить, чтобы понятнее было?

Алеандр #:
Так что же, извините, ваши ссылки подтверждают? Именно то, что я и говорю

Всё, нафиг. Тот, кто умеет читать - прочитал. Я написал не только для Вас. А с Вами дальше дискутировать не собираюсь, ибо бесполезно, судя по всему.

Vladimir #:
правило будет на самой странице, надо добавить проверку

Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.

Всего: 7661