LEOnidUKG

LEOnidUKG
Рейтинг
1776
Регистрация
25.11.2006
Должность
PHP
Интересы
Программирование

В QIP есть такое как Анти-спам. Не знаю, что такое спам вообще.

&PHPSESSID=92636064b03a1b2384abfa836b893b13

а зачем сессию то в урле держите? Это каждому пользователю будут свои комментарии :)

и урл сайта в личку скиньте.

So1, Спасибо за пост, я это всё понимаю и думал об этом.

So1:

Вот если вы сейчас сделаете для chatukg.net sitemap и под sitemap переточите свой скрипт определения похожести, Вы убьете 3 зайцев - поисковики обрадуются, скрипт ваш не будет грузить БД (читать лок файл всяко лучше :) ) и работать он будет так же как раньше.
IMAO

Тут всё на файлах, я же писал в первом посте, БД не трогается.

Я тут понимаю, что нужен скрипт, которые будет генерировать sitemap с анкорами т.е. паук.

Алекс 301:
мне нужен проверенный

/ru/forum/webmasters-jobs/registration-catalogs

Широчайший выбор проверенных людей :)

So1:
К стати, если я на странице pinguin.html, которая не существует, а на сайте есть pinguin.php и pinguin.htm, Ваш скрипт предложит мне оба правильных варианта?

для такого случая, просто синонимы дублируются и всё т.е. прописывается часть урла,например, "pingu" и для варианты pinguin.htm и для pinguin.php.

В любом случае sitemap явно нужнее

Конечно так удобнее, но вопрос остаётся открытым, как автоматом брать анкоры? или есть софтина, которая может эти анкоры сама вставлять?

LEOnidUKG добавил 07.11.2009 в 18:33

So1:
А как же алгоритмы?

Можно и их, через регулярки, но как это всё автоматизировать.

LEOnidUKG добавил 07.11.2009 в 18:35

So1:

И еще, вот тут http://chatukg.net/ratng.php я ошибся всего в одной букве и скрипт меня пнул на 404 страницу. Неужели, Вы просто сравниваете при помощи оператора like? А как же алгоритмы?

тут даже гугл не выход.

Но я синомимы подправил, теперь выдаёт то что нужно.

So1:
Отдавать 404 страницу со списком ссылок на разделы сайта. Или брать разделы из XML, который является картой сайта и там уже проверять.

Ок, возьмём карту сайта, откудова анкоры брать?

file_get_content каждую страницу и титлы брать оттудова?

So1, начинается, тут рассматриваю сам принцип, а P.S. это P.S. и смайл тоже не вкуриваете?

Зачем мне очередной геморрой

Действительно, есть предложение по лучше?

CashCardWire:
А таким способом мы подсовываем ему лишнию, но возможно полезную информацию.

Почему лишнюю то? Там скрипт считывает урл и ищет соответствие в базе, если находит, то выдаёт самые подходящие.

LEOnidUKG добавил 07.11.2009 в 15:17

So1:
http://chatukg.net/dream.htm
даже это не осилил ваш скрипт
существующая страница
http://chatukg.net/dream.html

Я базу на все урлы не забивал, просто.

CashCardWire:
А не проще

Проще, этим весь инет и занимается.

CashCardWire:
отправить 404 хедер и показать индексную страницу сайта (категории, раздела) + выдать где то сообщение о том что страница не найдена, зачем терять посетителя ?

Он и так 404 выходит.

Аха, мол юзер ИЩИ вот куча категорий что ты там хотел и не хотел.... и вооооон там где-то в угул мы тебе сообщаем, что твой страницы нету

miranon:
Через PayPal можно оплатить?

Нет, PayPal не принимаем.

Всего: 31521