ТС, xzorro намекнул на правильное обращение к элементам массива: $url[$ide] - не помогло?
Можете ещё попробовать написать так: trim($url[$ide]), чтобы не было переносов строк в адресе и лишних пробелов...
Если всё ещё не помогло, то покажите, как вы делаете работающий запрос без цикла?
Ребят, что-то вы все подтупливаете или поджучиваете.
1. Ему нужно наоборот со страниц с параметром GET, на обычные.
Но... вроде, это поняли к 10-му посту ( хотя нужно уточнить;), надеюсь ТС поможет ).
2. Ваши регулярки не подойдут, потому что GET не обрабатывается в ваших примерах! Параметры GET нужно ловить в QUERY_STRING
Ух... если успею, набросаю сам код...
не прав!
Вот, набросал...
Остальные по аналогии...
p.s. работает именно для тех ссылок, что ТС дал, при наличии в url index.php, но если запрос будет просто site.ru/?point_id=1, то не сработает, конечно. Но поправить будет уже не сложно... Главное, смысл я уже передал.
При низких тИЦ сайта-акцептора и среднестатистическом подходе, да, можно оценивать что 1-2 бека примерно один 1 тИЦ. Словить тиц 10-30 - это не проблема от 10-50 внешних ссылок. А вот поднять тИЦу, например, с 2000 на чуток, уже более проблематично (возможно, из-за того, что кто-то обмолвился про существование потолка в разных тематиках ;) ).
Смотрите внимательнее на свой сайт, скорее всего дело во внутренних факторах.
p.s. попробуйте добавить сайт через адурелку. Посмотрите, что яшка напишет.
1. Либо хостер чудит, что врядли в данном случае.
2. Скорее всего смотрите файл .htaccess может там прописано чтонидь для 404-ой или код CMSки просматривайте, возможно, сама джумла шлёт header с 404-ой! Это уже к разработчикам ( не джумлы, а вашего сайта ;) )!
В PHP это может выглядеть так: <?php header("HTTP/1.0 404 Not Found"); ?>
Попробуйте в скриптах поискать строку 404 Not Found и за комментируйте, только подобный "костыль" не есть гуд, лучше выявить ошибку и исправить, а то ещё чтонидь потом вылезет, типа дублей страниц...
Я думаю, как минимум вот это:
Судя по всему у вас не только iframe, но и трояны под видом gif напиханы и со случайными названиями. Это тоже проходили.
Чистил разные сайты от вирей раз 30 уже, если не больше. На всякий случай сделал статейку недавно: ищем и удаляем вирусы с сайта.
Если что, могу помочь удалить.
1. Делайте дамп сайта.
2. Скачивайте, проверяйте антивирей. Троянов он чистит. (Кстати свой компьютер защитить и проверить на вирусы нужно в обязательном порядке! Для этого есть достаточно полезных бесплатных утилиток, например, AVZ!)
3. Затем уже просматривайте шаблоны на наличие iframe и всевозможных обфускаций (маскировок) ;)
4. Заливайте изменённые файлы обратно на сайт.
5. htacces тоже проверьте, было дело недавно, в него редиректы пихали на сайты с вирями.
6. Про смену паролей уже сказали, не забудьте! И не храните фтп пароли вбитыми в фтп-клиентах!!!!!!!!
часто проходит, когда повтыкали iframe в чистом виде. Только нужно совсем удалять вредоносный код, а не заменять его на "пробел"! Могут сессии перестать работать, если вдруг вывод пробела окажется до заголовков.
Бывают ситуации, когда в каждом заражённом файле свой javascript, тут помогает либо регулярное выражение, либо вообще только ручное удаление (дабы не удалить попадающие под шаблон полезные данные). И хорошо, что хотя бы найти все заражённые (подозрительные) файлы через поиск действительно можно! Нужно только выявить повторяющиеся участки кода, по которым через поиск найти все подозрительные файлы. И визуально просмотреть, действительно ли там вирь или просто совпадение.
Пока я за все встречи с вирями на сайтах встречал вот такие вхождения в них:
fromCharCode
iframe
unescape
Поиском прогоните свой сайт по каждому ключу, и проверьте визуально все найденный файлы!
Разумеется, вхождение этих ключей, не говорит о том, что в файле обязательно вирус!
ТС нужно что-то другое. Для остальных похоже не нужно совсем закрывать доступ.
Вопрос интересный, подожду решения, может пригодиться.
В данном случае, вам лучше бы подправить скрипты, чтобы сразу нормально оконечный слеш добавляли в href-ы.
Мне почему-то не комфортно, когда в меню ссылки на директории, но без слеша в конце. Лишняя операция для апача, сначала пробует найти файл... и если не находит, то перекидывает на папку. Оно нужно?
А вот с редиректами с www на без www (или наоборот), блин, всегда им недоверяю ;). Пусть лучше ПС сами клеят сайт как им нужно. И уж если им совсем тяжко, то можно попробовать и помочь. Но это в крайнем случае.
Из своего опыта лечения, как-то уже написал статейку о защите от вируса conficker
Вся проблема в том, что антивирусы его у вас находят, но из локальной сети через уязвимость вам их опять пихают! И так до тех пор, пока патчи для винды не поставите.
Благо, обновлённые антивири, хотябы кричат постоянно, что кто-то из сети вам вирь суёт.