- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
будут писать сайт на php & mysql
робот посковика кушает только хтмл теги?
или каким-то образом ему можно скормить и бд?
как объяснить программисту задачу?
то что нельзя использовать конструкции типа link.php?id=smth это я уже прочитал, а вот как быть с сылками, например в каждом разделе есть определенное кол-во ссылок, безусловно хочется использовать возможности php. напрмер главная страница раздела, в ней 10 подразделов, соответственно 10 ссылок, появляется еще один раздел, следовательно еще один линк, но мне не хочется править все файлы, хочется из админ зоны 1 раз поправить, и новая ссылка висит на всех страницах данного раздела. вопрос, при таком отношении робот скушает эти ссылки?
например сайт посвящен обоям для рабочего стола, если динамически выводить картинки, они имеют шансы на попадание в images google ?
или все-таки лучшая гарантия успешности траффика из se является хтмл?
заранее благодарю.
каким-то образом ему можно скормить и бд?
как объяснить программисту задачу?
Базу никак.. Только если оформить нужный вывод из базы через PHP в HTML :)
О динамике - ну однозначно нужно оформить все в статику через mod_rewrite - в скрипте написать функцию вывода ссылок статикой. Остальное плохо понял.
можно ещё на лету формировать DOC и PDF из базы... например раз в день... по ним тоде траф будет...
будут писать сайт на php & mysql
робот посковика кушает только хтмл теги?
или каким-то образом ему можно скормить и бд?
Робот это такой специфический текстовый браузер. Он кушает то, что ему отдается сервером. Если для просмотра БД Эксплорер открывает плагин (запускает Эксель/Аксесс или еще что), то у поисковика плагина может и не оказаться :) А если ты скриптом из БД генеришь обычную хтмлную страничку - то робот ее именно как табличку увидит и проиндексирует...
Не самое хорошее решение имхо, пользователи лучше чтобы на .html приходили все же.
Не самое хорошее решение имхо, пользователи лучше чтобы на .html приходили все же.
где-то читал, что апач можно настроить так чтобы .html страницы распознавались как php, т.е. чтобы из хтмл, апач мог читать php код, в любом случае, наверстать кучу страниц - конечно можно (если много выпить), а вот обновить - уже проблемантично.
Поэтому использование php как раз кстати.
а вот к примеру в разделе 30 ссылок, все генерятся автоматически, бот скушает их? или нет?
или все-таки если питать надежды на траффик с поисковиков по огромной куче запросов, лучше все-таки делать каждую страницу индивидуально?
и линковать все ручками?
Спасибо.
Робот это такой специфический текстовый браузер. Он кушает то, что ему отдается сервером. Если для просмотра БД Эксплорер открывает плагин (запускает Эксель/Аксесс или еще что), то у поисковика плагина может и не оказаться :) А если ты скриптом из БД генеришь обычную хтмлную страничку - то робот ее именно как табличку увидит и проиндексирует...
не думаю, что будут использоваться Excel&Access
просто с динамикой еще ниразу не сталкивался, нехочется потерять кучу времени как своего, так и программиста.
Так зачем париться? когда поисковик что динамическу страницу что статическу одинаково индексирует? не давайте только ему сессии и адреса страницы должны быть постоянными, вот и все
Так зачем париться? когда поисковик что динамическу страницу что статическу одинаково индексирует? не давайте только ему сессии и адреса страницы должны быть постоянными, вот и все
т.е. можно скормить ему содержание бд, главное чтобы урлы были стабильные? неважно в хтмл тегах инфа или в бд, они все кушают без фокусов?
В протоколе HTTP есть такие понятия, как тип и подтип данных. Типов несколько, вместе с подтипами несколько десятков. Поисковики индексируют всего до десяти разных типов данных. В каком формате Вы будете отдавать данные? text/html, text/xml?
В протоколе HTTP есть такие понятия, как тип и подтип данных. Типов несколько, вместе с подтипами несколько десятков. Поисковики индексируют всего до десяти разных типов данных. В каком формате Вы будете отдавать данные? text/html, text/xml?
text/html наверное