senks777

Рейтинг
79
Регистрация
15.08.2010

Найти: (<td)[^>]+(colspan="\d+")[^>]*>

Заменить: \1 \2>

Reademonster:
реализовать запись в определённую строку (253)

берём файл ('.htaccess' || "banip.txt") и кладем данные в массив построчно


$filepatch = $_SERVER['DOCUMENT_ROOT'] . '/.htaccess';
$content = file_get_contents($filepatch);
$content = explode("\n" , $content);

берем 223-ю строку $content[252] (потому как массив начинается с 0)


// проверяем существование строки
if (array_key_exists(252, $content)) {

// добавляем $ip к строке
$content[252] .= ' '.$ip;

// пишем в файл
file_put_contents($filepatch, join("\n", $content));
}

НО! этот способ с работает верно если строка - deny from IP IP IP, всегда будет 253

иначе и правильнее, прочитать и парсить нужную строку в '.htaccess' или "banip.txt" с помощью preg_match()

затем изменять и перезаписывать .htaccess

а это уж немного другой вопрос и код..

P.S. код на странице закомментировать

Собственно.. как говориться "Не зная брода, не лезь в воду"..

это я к тому что выше приведен код в котором нет строки 253,

но есть код который добавляет в конец файла .htaccess директивы доступа к файлу (admin|12312426)\.php c указанных IP..

..и код записи в "banip.txt"

а это только половина информации..

нужная для изменяемая строка находится в файле ('.htaccess' || "banip.txt")

фрагмент которого с 253-й строкой отсутствует в посте..

поэтому более точно угадать не просто.

victorpavloff:
для ЗенноПостера

C#

string str = project.Variables["Имя_Переменной"].Value;
str = System.Text.RegularExpressions.Regex.Replace(str, @"<[^>]*>", "");
return str;

удалит все тэги.. оставит только текст в том числе и анкоры ссылок..

redeye:
буду ждать ответ программиста

ага.. отпишите ожидаемый ответ программиста.. интересно :)

redeye, поисковик в ссылках учитывает (видит, индексирует) все, что находится в атрибуте href="..."

и ему без разницы какие параметры вы передаёте с помощью GET и как и что они означают..

мысль в том, что..

если вы желаете разделить url, то вам необходимо через форму поиска отправлять два вида запросов к серверу:

GET запрос - site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek
POST запрос - ad_year_min=2004&ad_price_min=100&ad_price_max=1000&ad_condition=bad

в таком случае ссылка, на страницу результатов поиска вашего сайта, может иметь вид:

<a href="site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek">
Какой-то Анкор (регион, категория, Бренд)
</a>

и вы можете скармливать её поисковику или постить на других ресурсах (что в результате одно и тоже)..

При этом, скрипт ("поиск по сайту") на сервере при запросе страницы непременно проверяет POST..

а) если данные переданы, значит юзер пришел из формы и скрипт формирует для юзера страницу с учетом параметров в GET и POST..

б) если POST пустой, значит юзер пришёл по ссылке со стороннего ресурса и в этом случае,

скрипт формирует для юзера страницу с учетом важных для вас параметров из GET и добавляет вместо не важных POST,

скажем так - стандартные (средние) значения которые вы определите-укажите сами..

смею предположить, что в вашем случае игры с canonical, robots.txt, .htaccess, эту задачу вряд ли помогут решить..

да и результат нужно ждать неделями.. а если не сработает?.. снова меняем и снова ждём.. вечность?..

следует учесть изменчивость, в ту или иную сторону, алгоритмов поисковых систем.

l17l:
после обновления будет перекидывать к коду валидации? <div id="result"></div>

да.. к примеру:


<div id="result"> div к которому проскролит браузер после нажатия кнопки.. </div>

..... некоторый код .....

<a href="#result">
<button type="submit" class="contknopbotton">Добавить отзыв</button>
</a>

Zenit2007, вы просматриваете результаты сканирования с включённым "фильтром сторонних ресурсов",

которые подключенны на странице вашего сайта..

замените в выложенной вами ссылке параметр &filter_third_party_resources=true

на &filter_third_party_resources=false или просто пойдём посмотрим..

в каком-то месте скрипт вашего сайта тянет три файла с сервера яндекса..

https://site.yandex.net/v2.0/i/yandex-hint-rb.png (expiration not specified)

https://site.yandex.net/v2.0/js/opensearch.js (expiration not specified)

https://site.yandex.net/v2.0/js/suggest.js (expiration not specified)

.. где видимо отключено кеширование по причине частого обновления..

а т.к. PageSpeed анализирует страницу в целом, поэтому и

Zenit2007:
Не получается убрать
Leverage browser caching

отключите яндекс-скрипт и вы получите ожидаемый результат..

либо, ежели оставить необходимо то:

а) попробуйте связаться с тех-поддержкой яндекса и попросите включить кеширование на данном сервере :)..

б) оставьте этот яндекс-скрипт и забейте на Leverage browser caching..

да.. и хостер сайту ничем помочь не сможет.. зря напрягайте людей..

файлы в браузер как и в гугло-анализатор со сторонних ресурсов подгружаются напрямую минуя сервер вашего хостера.

Zenit2007:
За дельный совет заранее спасибо!!!

Как вы узнаете, что совет дельный?.. и заранее не благодарят.. и на здоровье.

Так-же вижу у себя "мёртвый" трафик якобы с яндекс-поиска с разных ip

http://yandex.ru/clck/jsredir?from=yandex.ru;yandsearch;web;;&text=&etext=далее-его-длинная-кодированная-лабуда

объединяет запросы

а) схожие useragent

176.193.88.178 Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; MASMJS) <- ?? что это

176.14.69.163 Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; Touch; ASU2JS) <- ?? это

176.195.146.73 Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; Trident/6.0; Touch; MALNJS) <- ?? это

5.35.47.100 Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; Trident/6.0; MDDCJS) <- ?? это

93.80.150.136 Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; Trident/6.0; MANM) <- ?? и это

..... и т.д. .....

б) многократное обращение к одной или нескольким страницам раз в сутки с интервалом в 1-5 секунд

после запроса к странице скачивает с её реферером только файлы *.js, *.css, *.cur

очевидно, не браузер, либо картинки и прочее закешированны (учитывая разные ip маловероятно)

предполагаю пустой трафик нагоняет софт на основе IE, возможно от яндекса.

у гугла, похожий по некоторым признакам анализатор, обращается к страницам уж скоро год..

только в отличие от яндекса видимость трафика с поиска не создает.

p.s. заметил месяц назад.

Us2828:
что делать то

прояснить для себя глубже:

что конкретно включает в понятие "Поведенческий фактор" яндекс и что гугл..

наложить как шаблон на сказанное в топике и..

сидеть на попе ровно (не ёрзая)..

писать платонам особо нечего,

кроме как жалобу на неизвестного конкурента за хамство в подделанном Referer..

сайт в норме.. санкций нет.. просить платонов изменить решение алгоритмов - какое?..

то-же касаемо и Google..

собирайте информацию, наблюдайте, трудитесь в обычном режиме..

Us2828:
может ли это повлиять на сайт и огрести за это фильтр

поисковик (яндекс) вычислит по своей базе что на страницы не было переходов из его выдачи по этим запросам,

и что Referer по которому якобы пришли на страницу подделан. (может и накрутка ПФ)

если в Referer указан другой поисковик (не yandex) то яндекс может посчитать Referer валидным,

и тогда это обычный переход (до тех пор, пока данные из ЯндексБраузер или ЯндексБар не подтвердят обратное)

Us2828:
чего добивается тот, кто заказал такую накрутку

тот кто заказал таким способом передал вам свое сообщение и заставил ёрзать на стуле..

может конкурент сделал это под флагом "Ну хоть как-то насолить"..

а может и в надежде на санкции со стороны пс..

сложно сказать..

Подытожим

Всего: 225