big boy

big boy
Рейтинг
358
Регистрация
18.11.2006
Должность
webmaster
VasiliyRusakov #:
За прошлый год написали 3000-5000 страниц
Как трафик?
ziliboba0213 #:
Я с китайскими работаю - deepseek.com и qwen.ai

Тестировал. Единственный плюс - доступны без VPN.

В остальном сильно уступают лидерам: быстро теряют контекст и слишком много галлюцинаций. Качественную статью там так и не получилось написать.

Alekser :
mega.io, для скачивания со стороны пользователей требуют регистрацию

Вроде не требует.

Самый надёжный вариант - это аренда своего S3 хранилища. Я себе тут взял - https://reg.cloud/services/s3-storage

Ваши 200 гигов обойдутся всего в ~432 рубля в месяц. И никто мозги клепать не будет по поводу того, что у Вас там лежит.

Модули для загрузки в S3 есть почти для всех CMS.

Единственный минус - если планируются нагрузки свыше нескольких гигабит в сек, то могут начаться тормоза. Но что-то мне подсказывает, что у Вас такого не будет.

Genius Ideaing #:

как бы вы не делали, хоть вместо ЧПУ.. .

/catalog/?idtovara=10939

/catalog/?idtovara=34

/catalog/?idtovara=1511

результат будет ОДИНАКОВЫМ...

ваши ЧПУ URL-ы ... 0,000001% имеют влияние на ранжирование страницы....

Очень спорно.

Правильная вложенность + разметка хлебных крошек = в сниппете отобразят путь:

Поисковику проще понять, что к чему относится, нежели чем с вариантом /catalog/?idtovara=1511.

Genius Ideaing #:
ваши ЧПУ URL-ы ... 0,000001% имеют влияние на ранжирование страницы....

Если бы это было так, то в выдаче встречались бы, как варианты с id в урле так и без. Но там везде только ЧПУ. Если делать с get параметрами страницы, то можно наплодить кучу дублей из-за других параметров, которые могут быть подмешаны туда случайно. Это лишний головняк и куча правил в robots.txt. Так уже давно никто не делает.


По сабжу - дублировать в урле уже встречающиеся слова лучше не надо, но и грубой ошибки в этом нет.

pavlkonst #:

Такие сервисы по большей части просто обертки вокруг API того же ChatGPT или Claude, ты платишь х5-х10 к цене токенов просто за то, что кто-то другой написал промпт за тебя

Генерировать статьи оптимального качества одной кнопкой - это утопия. Любой "преднастроенный" сервис выдает усредненный, шаблонный контент, который сейчас детектится и пользователями, и поисковиками на раз. Чтобы получить качество, нужно давать модели контекст: фактуру, стиль, примеры, а это и есть та самая "возня", от которой ты хочешь убежать

Подписываюсь под каждым словом.

Сейчас чаты даже ресёрч за тебя сделают и контекст подготовят, они с каждым месяцем всё больше рутины могут сами делать.

По идее не должно влиять, но вот это настораживает:

creative3d :
После этого сразу же цена за клик стала меньше

Что за посредник? С его стороны не было никаких изменений? Трафик как-то изменился (страны)?

Идея получше - сделать сервис. Какое-то прикладное решение, веб-приложение, бота и тд, только без написания фреймворка для этого. Используйте готовые инструменты, их как раз для этого и создавали. Оценить/сравнить в конце года по DAU/MAU и еще каким-то объективным метрикам.

А эти ваши идеи в стиле "напишу 100500-й никому не нужный фреймворк"... Зачем? Хотите научиться водить - водите, не надо с нуля строить машину для этого.

Александр Воробьев #:
Мини веб фреймворк

Симфони, лара и прочие:

Александр Воробьев #:
По скольку я не сторонник написания велосипедов

Но собираетесь писать велосипед.

Александр Воробьев #:
без особых планов на его какое то серьезное развитие

Потратить время ради потраченного времени?

Собрались стать строителем, но вместо изучения сопромата начали изобретать дрель.

Ничего не понятно. В чем суть-то?
Всего: 2841