- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нужно устроить сортировку по ип адресу, нашел такой скрипт:
@aliens = ('205.204.167.190', '12.13.171.200', '195.161.35.195');
#Теперь определим вышеуказанные переменные: $remip = ${ENV{REMOTE_ADDR}}; $proxy = ${ENV{HTTP_VIA}}; $realip = ${ENV{HTTP_X_FORWARDED_FOR}}; #Далее проведём проверку на чужих: $alienhere = 0; foreach $address (@aliens) { if ($remip eq $address || $realip eq $address){ $alienhere = 1; } } #Теперь осталось своему показать одно, чужому - другое: if ($alienhere == 0) { print < Наши пришли! OURPAGE } else{ print < Уйди, прааативный ALIENPAGE }
но не знаю что с ним делать, подскажите.
знаю что поисковики за клоакинг карают, это не для них.
В чём вопрос? Это у Вас, как я вижу, скрипт на перле. Если у Вас хостинг перл поддерживает, то можно так и воткнуть. Если нет, то легко сконвертить в пхп.
обратите внимание, раздел называется "Любые вопросы от новичков"
соответственно и вопросы такие:
перл поддерживается,
вопросы:
1.какой должен быть файл? предполагою текстовый, но как называться и с каким разширением и куда помещаться? ведь он первым должен выдаваться
2.что нужно исправить в скрипте, ведь он должен загружать определенные файлы (index.html и например inde.html)
ну и теоретический, насколько он хорош ли плох ли примитивен ли или нормальный (скрипт)?
просто я не знаю темы, искал, но кроме теории что такое клоакинг ни чего не нашел, только вот этот скрипт
обратите внимание, раздел называется "Любые вопросы от новичков"
Я потому и прошу конкретезировать, что хочу понять, что Вам не понятно :)
соответственно и вопросы такие:
перл поддерживается,
вопросы:
1.какой должен быть файл? предполагою текстовый, но как называться и с каким разширением и куда помещаться? ведь он первым должен выдаваться
Полагаю, что если Вы раньше не работали с перлом, а использовали только пхп, то лучше на нём делать (программа эта на пхп переводится быстро, надо?). Если же Вам так актуально сделать именно на перле, но Вы не знаете что и куда, то пните на эту тему хостера - может он подскажет где надо перл-скрипты у него размещать (всё от хостера зависит, хотя, у них всё весьма одинакого).
2.что нужно исправить в скрипте, ведь он должен загружать определенные файлы (index.html и например inde.html)
Почти ничего. Надо заменить блок "print < Наши пришли! OURPAGE" на вывод Вашего файл для "нормальных", а "print < Уйди, прааативный ALIENPAGE" - выводом файла для "чужих".
ну и теоретический, насколько он хорош ли плох ли примитивен ли или нормальный (скрипт)?
просто я не знаю темы, искал, но кроме теории что такое клоакинг ни чего не нашел, только вот этот скрипт
Вполне нормальный скрипт, отделяющий "чужих" по ip. Всё зависит от целей, для которых он будет использоваться. Например, если набор "плохих" ip-адресов планируется часто менять, то удобно вынести его в отдельный файл. Если же набор стабилен, то и так нормально. Короче, всё правильно.
Я бы посоветовал использовать mod_rewrite, аналогичные вещи с его помощью делаются нагляднее.
Вообщето работаю со статическими страницами,т.к. пока не увидел для себя нужды в динамике,это к тому что для меня лучше перл или пхп - ни то ни другое не знаю так что все равно,главное чтоб работало
вот выписка из настроек хостинга:
/htdocs для хранения статического контента и php
Путь к perl /usr/bin/perl
Расширение Perl-скриптов .pl
Расширение PHP-скриптов .phtml, .php
Правильно ли я понимаю:
1.создаем текстовый файл, вставляем туда выше описаный скрипт с исправлениями, называем его - как? "название.pl", копируем его в
/usr/bin/perl , вроде все
или еще что-то?
И отдельное спасибо за участие
Я бы посоветовал использовать mod_rewrite, аналогичные вещи с его помощью делаются нагляднее.
По подробнее если можно
1.создаем текстовый файл, вставляем туда выше описаный скрипт с исправлениями, называем его - как? "название.pl",
да, только лучше в названии без русских букв.
копируем его в /usr/bin/perl,
Нет! В начале файла (первой строкой) пишите "#!/usr/bin/perl -w".
А сам файл кладёте в /htdocs
вроде все или еще что-то?
И ещё надо сделать, чтобы этот файл всегда вызывался, когда обращаются по любому адресу на Вашем сайте. Например, так:
добавтье в файл .htaccess следующие две строки
RewriteEngine on
RewriteRule !\.(gif|jpg|png|css|txt|ico)$ "/htdocx/index.pl" [L]
(где index.pl - имя Вашего скрипта)
И отдельное спасибо за участие
Всегда пожалуйста!
создаем в корне сайта файл .htaccess
RewriteEngine on
RewriteCond %{REMOTE_ADDR} ^205\.204\.167\.190$
RewriteRule ^(robots\.txt)$ no$1 [L]
хосту 205.204.167.190 по адресу /robots.txt выдается содержимое файла norobots.txt, а остальным robots.txt
http://httpd.apache.org/docs/1.3/misc/rewriteguide.html
И ещё надо сделать, чтобы этот файл всегда вызывался, когда обращаются по любому адресу на Вашем сайте. Например, так:
добавтье в файл .htaccess следующие две строки
RewriteEngine on
RewriteRule !\.(gif|jpg|png|css|txt|ico)$ "/htdocx/index.pl" [L]
(где index.pl - имя Вашего скрипта)
Всегда пожалуйста!
Нет, желательно сделать чтобы он вызывался только при обращении
к главной странице, к остальным можно и напрямую
создаем в корне сайта файл .htaccess
RewriteEngine on
RewriteCond %{REMOTE_ADDR} ^205\.204\.167\.190$
RewriteRule ^(robots\.txt)$ no$1 [L]
хосту 205.204.167.190 по адресу /robots.txt выдается содержимое файла norobots.txt, а остальным robots.txt
http://httpd.apache.org/docs/1.3/misc/rewriteguide.html
я правильно понял: вместо robots\.txt$ no$1 [L] можно index\.html$ no$1 [L], и если несколько хостов то как будет выглядеть код?
и если можно приимущества и недостатки обоих обсуждаемых способов