lagoff

Рейтинг
4
Регистрация
07.04.2011
Нямкин:
Поиск по содержимому файлов в папке. Это, например, умеет Тотал Коммандер:

Это если есть локальная версия, а если только удаленная, то поиск по фтп будет долгим

ТС, а если тему изменить, ссылка пропадает?

datum:
Как убрать дубли?

Сделать два запроса. Сначала выбрать новости с нужное количество новостей, пройтись по ним циклом, собрать ID и сделать второй запрос к таблице с картинками используя WHERE news_id IN (ID1, ID2, ... , IDN).

datum:
Почему не работает distinct

Потому что в результате джойна строки результирующей таблицы все уникальные.

Allpositions.ru довольно хорош. Не бесплатный, но качественный.

<a href="example.html" onClick="javascript: pageTracker._ trackPageview("/perehod");">ссылка</a>

1) Убрать пробел между "pageTracker._" и "trackPageview"

2) Если ссылка это кнопка выполняющая какое-либо действие прямо на странице без перезагрузки, то изменить значение атрибута href на href="javascript:void(0);".

Если же после нажатия на ссылке происходит переход на другую страницу, то в качестве цели указать адрес страницы, на которую происходит переход.

makclit:
как через РНР сделать ротатор шаблонов на DLE .

Вот есть шаблоны new1.tpl-new9.tpl

Ну на ДЛЕ вставляются ТЕГом - {include file="new1.tpl"}, а вот хочется {include file="newХХХ.tpl"}, гдле ХХХ- 1 от 9

Сами шаблоны ДЛЕ умеют читать РНР, те вставки типа

работают

А вот такое


Не работает

А если поконкретней? Шаблон не находит, либо не происходит смена шаблонов?

Вот не могу определится, то ли мне писать функцию по выборке id_cat по url, или же склеить две таблицы и дергать записи непосредственно по полю url?
Вроде как по второму методу проще и удобнее или я заблуждаюсь?

Если записей в обоих таблицах немного, то подойдет второй вариант.

Если записей приличное количество и нужна оптимизация, то следует помнить, что join'ы всегда работают медленнее запросов к "одиночным" таблицам.

В этом случае предпочтительнее первый вариант с кешированием результата выборки. Функция будет работать следующим образом:

1) выбираем все категории

2) преобразуем в ассоциативный массив вида url=>id_cat

3) кешируем полученный результат, например на час-два-сутки.

4) по ключу массива получаем получаем id категории

Пока-что у меня работает такой метод скрытия ссылок в JS:
- JS вынести в отдельный файл .js, который потом подключается как script src=...
- все .js файлы надо держать в отдельной папке типа /js/
- .js файл со ссылками закодировать каким-то упаковщиком типа http://dean.edwards.name/packer/
- в robots.txt запретить:
Disallow: /js/
Disallow: /*.js

Согласен, только паковать не обязательно, потому как на выходе тот же JS получается.

Более хардкорный, параноидальный вариант, работающий на 101%. Ни один поисковик не распознает никогда:

1) Кодируем сам URL-формат, т.е. вместо http://www.site.com/path/page1.html приводим ссылки к виду, например mggb:||www^site^com|path|page1^html

Делается простой подменой символов на раз. Этим закрываем наши ссылки от возможных URL-парсеров на стороне ПС, которые ищут ссылки не только в рамках "правильных" тегов

2) Оформляем ссылки как <span class="paranoid-style-hidden-link" rel="mggb:||www^site^com|path|page1^html">анкор</span>

3) В отдельном JS-файле, пишем декодер линков, преобразующий всю эту муть обратно. Сам файл подключаем через <script src="">

4) Допускаем, что хитрые ПС могут для полной сборки страницы (со всеми скриптами имеется в виду) игнорировать Disallow в robots.txt, поэтому физически закрываем доступ к нашему файлу на сервере для запросов с роботов ПС.

Путь не из легких, но с автоматом сработает 100%. От специалиста-человека с должным уровнем квалификации не спасет конечно же.