Алексей Барыкин

Алексей Барыкин
Рейтинг
272
Регистрация
04.02.2008
iPower:
Отписался в аську.

Нет в аське ничего.

Алексей Барыкин добавил 04.09.2008 в 12:15

Получил отчёт об уязвимостях своего сайта

Отчёт подробно описывает все найденные уязвимости (у меня аж 6 штук), содержит рекомендации по их устранению.

Общее мнение - работа выполнена на отлично и стоит своих денег (всего то 20 баксов...)

Буду пользоваться услугами ТС дальше.

Научите жизни, а?

Букварь жизни:

http://tutorial.semonitor.ru/

Валерик:
Есть сервис или скрипт который прошарит весь сайт и соберёт все страницы без исключения? (их там не малое количество)
Как раз пытаюсь свои силы и поберечь, что бы не заниматся работай генерируя и перезаливая каждый раз sitemap. И если загляните повнимательнее в первый мой пост, то поймёте что добавлять в аддурелку буду не, а как раз сами пользователи.

А что, объявы не базе живут? 😮

Вы себе враг?

О, человек - оркестр!

Знает html,php,MySQL,CSS,Photoshop, flash и много других страшных слов!

/ru/forum/255761

Валерик:
На данный момент в базе около 10 тыс. объявлений. Для каждого индивидуальный урл.
Каждый день в районе сотни добавляется, при модерации 20% удаляется, то есть страницы там уже не будет, а будет 404. И какой тут sitemap?

А что смущает?

keywords не влияет, но по привычке прописывают.

из desсription гоша формирует сниппет в выдаче.

Хороший сниппет побуждает тыкать в ссылку.

ньюбой:
пасиба конечно большое, но я очень не дружу с пхп, это надо сохранить как 1.php повесить на сайт и войти на страницу?

Примерно так.

ньюбой:
счем из текста оставить только url'ы?

Регулярным выраженем.

Пример:

$html = '<ul>

<li><a href="/access/1">Глава 1. Общие сведения о Microsoft Access</a></li>
<li><a href="/access/2">Глава 2. Работа с таблицами</a></li>
<li><a href="/access/3">Глава 3. Использование внешних данных</a></li>
<li><a href="/access/4">Глава 4. Отбор и сортировка записей с помощью запросов</a></li>
<li><a href="/access/5">Глава 5. Создание форм для ввода данных</a></li>
<li><a href="/access/6">Глава 6. Создание и печать отчетов</a></li>
</ul>';
$out = array();
preg_match_all('|href="(.*)"|Uis', $html, $out, PREG_PATTERN_ORDER);
foreach ($out[1] as $value)
echo $value;
unset($out);
Люблю Его:
Что нужно закрывать в файле robots.txt от индексации? Как это влияет на поисковик?😕

В robots.txt нужно закрывать служебные и дублирующие страницы. На поисковик это влияет положительно. :)

Пациент http://exfile.ru

Ася 66694762

Всего: 5162