Это если есть локальная версия, а если только удаленная, то поиск по фтп будет долгим
ТС, а если тему изменить, ссылка пропадает?
Сделать два запроса. Сначала выбрать новости с нужное количество новостей, пройтись по ним циклом, собрать ID и сделать второй запрос к таблице с картинками используя WHERE news_id IN (ID1, ID2, ... , IDN).
Потому что в результате джойна строки результирующей таблицы все уникальные.
Allpositions.ru довольно хорош. Не бесплатный, но качественный.
<a href="example.html" onClick="javascript: pageTracker._ trackPageview("/perehod");">ссылка</a>
1) Убрать пробел между "pageTracker._" и "trackPageview"
2) Если ссылка это кнопка выполняющая какое-либо действие прямо на странице без перезагрузки, то изменить значение атрибута href на href="javascript:void(0);".
Если же после нажатия на ссылке происходит переход на другую страницу, то в качестве цели указать адрес страницы, на которую происходит переход.
А если поконкретней? Шаблон не находит, либо не происходит смена шаблонов?
Если записей в обоих таблицах немного, то подойдет второй вариант.
Если записей приличное количество и нужна оптимизация, то следует помнить, что join'ы всегда работают медленнее запросов к "одиночным" таблицам.
В этом случае предпочтительнее первый вариант с кешированием результата выборки. Функция будет работать следующим образом:
1) выбираем все категории
2) преобразуем в ассоциативный массив вида url=>id_cat
3) кешируем полученный результат, например на час-два-сутки.
4) по ключу массива получаем получаем id категории
Согласен, только паковать не обязательно, потому как на выходе тот же JS получается.
Более хардкорный, параноидальный вариант, работающий на 101%. Ни один поисковик не распознает никогда:
1) Кодируем сам URL-формат, т.е. вместо http://www.site.com/path/page1.html приводим ссылки к виду, например mggb:||www^site^com|path|page1^html
Делается простой подменой символов на раз. Этим закрываем наши ссылки от возможных URL-парсеров на стороне ПС, которые ищут ссылки не только в рамках "правильных" тегов
2) Оформляем ссылки как <span class="paranoid-style-hidden-link" rel="mggb:||www^site^com|path|page1^html">анкор</span>
3) В отдельном JS-файле, пишем декодер линков, преобразующий всю эту муть обратно. Сам файл подключаем через <script src="">
4) Допускаем, что хитрые ПС могут для полной сборки страницы (со всеми скриптами имеется в виду) игнорировать Disallow в robots.txt, поэтому физически закрываем доступ к нашему файлу на сервере для запросов с роботов ПС.
Путь не из легких, но с автоматом сработает 100%. От специалиста-человека с должным уровнем квалификации не спасет конечно же.