DyaDya

DyaDya
Рейтинг
147
Регистрация
11.04.2007
Alksprin:
выходит мой сайт в поисковых системах?

уточните, что вы подразумеваете под фразой "выходит"?

А так, если посмотреть по каким фразам находят ваш сайт и переходят на него, то ли.ру или можно на сервак поставить анализатор логов awstats (обычно, есть на хостинге, в панели хостинга покопайтесь).

Но ли.ру - это самый оптимальный вариант, чтобы не париться.

Dmytro:
Закинул архив на вирустотал, один только др.веб нашел BackDoor.Click.origin, все остальные показали, что архив чист. Думаю, или веб глючит, или это апофеоз паранои его разработчиков.

закиньте на яндекс, у них вроде тоже доктор веб проверяет. посмотрим-с... кто не чист.

x-mobi.ru, вы сказали, что используете свой код для ввода параметров у товаров и т.п.

Так каждый параметр вродя имеет свой уникальный id, почему незя сделать типа такого?


<input type="checkbox" name="name[999]" value="1" />
<input type="checkbox" name="name[45]" value="1" checked />
<input type="checkbox" name="name[865]" value="1" />
...

А при получении данных, конечно же нужно будет сравнить полученные установленные значения параметров с теми, что хранятся в базе и обновить в базе значения. Если параметр не получен, значит, он не установлен.

---

А то, что чекбоксы отсылаются только выбранные - это вполне логично и оспаривать не следует).

И вы не боитесь, что пока вы будете работать с параметрами, другой пользователь добавит новый параметр и их число в базе изменится. Как вы будете сопоставлять полученные параметры с параметрами в базе (их же уже будет больше на 1).

p.s. ТС, наверное, вы используете "компоненты" в программировании.

keira:
так можно любого конкурента увалить, получается?

возможно, если они не следят за тем, что творится на их сайтах!

Робот сапы слушается robots.txt , но создать для него отдельную секцию с директивами пока не получится. Может когда-нибудь введут свой User-agent )

1. Общую секцию с запретом для индексации придётся убрать.

2. Вам, ТС, следует для всех популярных ПС прописать свои секции с ограничениями.

Возможно, достаточно будет поставить ограничение для робота Яхи.


User-agent: Slurp
Disallow: /

Частенько он мучает сайты.

--

Другое дело, поможет ли это или нет реально снизить нагрузку - ответить без анализа лога запросов к сайту, сложновато. Подозреваю, что вам это не поможет.

Вордпресс - это пресс для сервера). Не помешало бы оптимизировать работу скриптов (.

------------

Как вариант, можно узнать IP робота сапы и давать ему другой robots.txt !

Забавно, если два сайта сделают одинаково - "защитят" свой ворованный контент от воровства, то яндекс рандомно будет выбирать первоисточник? ;)

burunduk:
данный текст в настоящий момент расположен на 17 сайтах (по версии Яши)
среди них 10 из ЯК
тиц 12000, 6900, 2100, 2100, 700, 700, 200, 275, 375, 170, 90, 80, 20, 0, 0,

А какой из этих сайтов является настоящим первоисточником?

И сравнить бы, где этот текст расположен у них и где у вас?

Паление темы не на 1 апреля намечается?

DyaDya добавил 29.03.2009 в 17:24

burunduk:
с достаточно большой вероятностью, но не первоисточником, а ресурсом с точки зрения Яши достаточно авторитетным чтобы предоставлять данную информацию

жаль, что сайт не будет первоисточником(. Этот рецепт скушает только для яшка?

Смахивает на то, что нужно просто попасть в яндекс.новости)

--

Nicca, посмотрите код html страницы. Наверняка есть косяк в ссылках.

Проблем не должно быть, если всё правильно сделано.

Ещё лучше, если покажете сайт.

_Владимир_:
Как оказалось, почти только Вы обратили внимание на то, что помимо внешних были еще и внутренние, а именно спамные коменты, да еще и линкованные между собой.

Подозреваю, что многие просто промолчали)

BillGates:
это очень не культурно так сайты валить.

Если это законы не нарушает, значит, применимо.

ИМХО о культуре: более не культурно беременным не уступать место в метро.

Млин, недеюсь, 3 клиента, с которыми я переписывался на днях, смогут восстановить свои пароли.)

Всего: 2917