Vladimir

Vladimir
Рейтинг
624
Регистрация
07.06.2004
Интересы
Photo
Sly32 #:

Ты уже попробовал? Можешь привести примеры "грязного" кода, в сравнении с тем что пишешь ты? С удовольствием бы посмотрел)

Я не пишу, я заказываю и не у вебмастера ( хоть бы понятия правильно применял), а у верстальщика.
Перед заказом анализирую  код из его примеров и только потом заказываю.

Любой сайт открой от  Elementor , и любуйся грязным кодом сколько хочешь, если конечно разбираешься в этом
EdwardEdit #:

Ну почему же? Если это все автоматизировать, то очень много сфер попросту становятся не нужны. Например возьмем по нашей теме, появляется все больше сайтов, где посетитель пишет свой вопрос, а GPT ему тут же отвечает, далее автоматически текст вопроса прописывается в качестве заголовка, ответ в качестве основного текста статьи и все это на полном автомате публикуется и почему-то попадает на ТОПовые позиции в том же Google.

Переведу:
- Обыкновенный копипаст с других сайтов. Если копипастер копирует с 1-3 сайтов. То в данном случае програмно с сотни сайтов.
- Дорвеи с копипастом всегда были в топе, что в Гугл, что в Яндексе

Sly32 - Т.е не будет авторов, не будет никакого ИИ. Для понимания прочти книгу "Планета обезьян"
И не пости больше Глупых Тем

DesignerGPT? Тот же самый Elementor - рассчитанный в первую очередь на новичков, которые слабо знакомы с принципами вёрстки и создания оригинального дизайна для сайтов.
Т.е грязный до ужаса код, без оптимизации. 

Dambo #:

От копирования сайт не защищён, о чем тоже горюю.

В каком месте тогда развитие сайта?

musme #:

Спасибо, сделал пагинацию + подгрузка по кнопке "показать еще". Только вот долго и упорно гуглил, что делать с SEO на доп.страницах пагинации и вычитал, что лучше закрыть от индексирования. Взял и запретил их в robots.txt, а вы пишите, что надо уникальный тайтл сделать и не запрещать. Посеяно очередное зерно сомнений, спасибо за ответ!)

Стандартный совет от тех кто не знает, что с этим делать, т.е от теоретиков от SEO ))

И читать внимательнее: Все страницы и их пагинация ( до 50 ) была проиндексирована и давала траф

PS А так да вы правы, от лени разбираться еще, запрещаем к индексированию и все😂. Посетители видят только первую страницу, с комментами на ней. Остальные станицы летят в МПК.
Вопрос зачем вам до сотни мусорных страниц на сайте? Т.е зачем вам пагинация
Ну и туда же, если в комментариях нет хорошего контента, они мусорные, то тоже пагинация не нужна, и комменты старые просто меняем на новые, оставляя на странице 5-10

kostyam #:

Это почему? У вас есть своё решение, которое не знают другие разрабы?

Все разрабы должны знать. Но почему то никто не настраивает
Заголовки сервера: expired, last-modified в связке с 304, уменьшают обьем сканирования, на порядок
Увеличивая  индексирование страниц сайта до 100% ( без прочих  технических ошибок)

PS за 20 лет, не использовал для индексирования ни консоль, ни API . Вся сотня сайтов полностью в индексе


kostyam #:

Это в день 200 урлов бесплатно или вообще только 200 урлов?

Самое интересное, это чем меньше, тем лучше, т.е вообще не использовать

Devvver #:
Что мешало для каждого сайта в консоли выводить API без дрочева?

Что мешает вам совсем не использовать API без...
Настроив всего навсего правильно заголовки ответов сервера

musme :

Всем доброго времени суток.
Имеется сайт (wordpress), на котором есть популярные посты с большим количеством комментариев ( от 500 до 700 ) с текстом и фото.

1) Как вы считаете, лучше отображать их все на одной странице или разбивать на страницы?
2) Лучше делать пагинацию или infinite-scroll?
3) Если пагинацию, то какое количество комментов показывать на странице

1. Разбить на страницы. Контент страницы только на первой, на остальных превью, далее с ссылка продолжение на первую
2. Пагинация. Титл каждой страницы свой
3. Количество комментов на странице  примерное, в зависимости от среднего обьема коммента и желаемого обьема страницы пагинации

PS Такая система была сделана на плагине, с небольшой подработкой
Висела на сайте 15 лет. Все страницы и их пагинация ( до 50 ) была проиндексирована и давала траф

br.almighty #:

Интересная теория, конечно... Вообще такой закономерности не замечал ни разу.

Это практика. Почему не присваивается как первоисточник, потому что его можно сместить в дубли

Про: вот и все - это теоретики с теорией заговора)
- начни с настройки ответа сервера, в связке expired, last-modified, 304 (гуглим)
- затем приведи в порядок pagespeed, все должно быть в зеленом.
- Главная, первая видимая страница должна быть более информативна ( с контентом)

Brat_Sergij #:
Кстати обратите внимание, как крупняки в лице сайтов банков, организаций и пр. начали активно писать в свои блоги на самые разные тематики, даже не связанные с тематикой их деятельности. Всё почему? Поисковики начали давать им траф из-за высокого траста.

Подвинуть их в выдаче будет практически нереально....

Есть такое Тинькоф достал своими статьями
Но, поисковики не начали давать траф, все как обычно, вы сами отдали.

"Двигаются" все и в первую очередь дзен, ну чуть больше усилий


serpoff #:

Пока предпосылок нет. 

Уже угробили коммерческие направления, забрав траф у ИМ и отдав их агрегаторам. Народ привыкает к топам и уже многие не используют поиск для товаров, сразу в озон или вб.

Есть такое, яндекс практически не нужен, сразу отрываешь Озон там есть все
Т.е скорее всего, директ они скоро совсем убьют

Мегамаркет еще кинулся догонять озон, достал своей нудной теле рекламой

Всего: 9057