WebJunior

WebJunior
Рейтинг
155
Регистрация
11.06.2010
BuHoBeH:
Эх,а я думал что могу!

Чой-то все "а я убить могу/хочу!1". Пусть теперь подтягиваются те, кто: "Завалил троих с половиной (да-да с половиной 🤪) за последние 10 лет, а выбрал троичку".

Тогда-то тест можно будет считать недостоверным на 100%.

-= Serafim =-:
А что там было?

......................

jpg 119435.jpg
Geers:
Geers, нечаянно с другого аккаунта сообщение отправилось?
странно, почему цитирование не работает)

Та вот... вроде бы всё ок с цитатами. И те и те работают)

Alexby, я вам здесь ответил, должно помочь.

GGameOveRR:
есть такое согласен 100%

Жмите "спасибо" если вы сейчас сидите на стуле и смотрите в монитор! 100% сидите...

Какой-то модуль содержит запрос с использованием flag, видимо. Решение топором:

ALTER TABLE `dle_post` ADD `flag` VARCHAR (3) NOT NULL

Просто в новых версиях этот 'flag' удален из таблицы.

arsen4ik:
А Джобс умер то не от рака как говорят а от СПИДА.

Ну, если учесть что "говорят", так некоторые говорят что СПИДа вовсе нет. Есть СИД или ССИ - Синдром ИммуноДефицита или Синдром Сниженного Иммунитета. А вирус, (который на самом деле безопасный) к этому делу приплели что бы народ не беспокоить. И догадки эти не лишены смысла, к слову сказать. История СПИДа началась как раз в эпоху "прогрессивного" перехода человека на полностью искусственное обеспечение. Из сёл (природы) - в город (человятник).

arsen4ik:
предупреждать сердечно-сосудистые болезни, онкологию, а это в 90% причины смертности на планете.

То есть в "будущем" по-прежнему будем бороться со следствием а не причиной? Мощно 😂

Причем вы правы - к тому ведь и ведут... но нужно запомнить: в жопу такое средневековое будущее, в анналы или куда там.

zusull:
А как в дле для страниц тегов сделать свои описания и нормальные заголовки?

http://dle-news.ru/release/1555-datalife-engine-v98-final-release.html#sel=19:1,19:67

---------- Добавлено 04.02.2013 в 08:55 ----------

Краткая суть поста – чем меньше файл robots.txt тем лучше и качественнее сайт, и это относится не только к DLE, но вообще к любому движку или сайту. Закрывая от индексации какие-то страницы (или даже разделы) вы тем самым признаете, что эти страницы некачественные.

Немного странным показался его подход. А если предположить что ПС считает качественным тот сайт на индексацию которого ушло меньше времени? Тогда именно запрещать индексацию каждой отдельной страницы через мета-тег как раз неправильно. Ведь робот узнает что страницу не нужно включать в индекс только после того как посетит её. чзнх?! :) А так-то для того и есть robots.txt - что бы экономить ресурсы краулер. И ничего постыдного в этом нет.

Всего: 1764