LakeDaemon

Рейтинг
71
Регистрация
12.06.2002

В общем случае робот не обращает внимания на глубину вложенности таблиц. Влияние имеет положение слова относительно начала документа: ближе -- лучше. Робот, насколько я понимаю, просто "вычищает" HTML, разумеется, обращая внимание на ссылки, alt для img и тому подобные важные для него вещи :)

В любом случае их надо искать там, куда они пишутся :). Если у Вас платный хостинг -- обратитесь в саппорт за разъяснениями. В случае бесплатного хостинга Вы, скорее всего, логов никогда не увидите.

Для каждого сайта лог пишется отдельный (как правило).

Естественно, в лог пишутся все обращения к сайту. Отличить можно по user-agent'у.

Знать бы где ещё нормальную версию взять

Пятую можно :) Вроде нормальная

Но в идее есть смысл

какой?

Есть такая вещь, как логи сервера. В них на сервере, где находится сайт, пишется то, что определено настройками данного сервера (виртуального хоста). Обычно пишется IP-адрес, с которого пришел запрос, дата и время, запрошенный файл, код ответа сервера, размер переданных данных, реферер и юзер-агент (в случае апача)

Если Вы имеете в виду тэг <noindex> -- его понимают только рамблер и яндекс. Можно для запрета конкретных страниц использовать <meta name="Robots" content="noindex">. Но через robots.txt и гибче, и удобнее.

ничего не понял. Что конкретно Вы хотите сделать? Могу помочь, пиши в личку.

Хуже, по-моему. Ключевые элементы интерфейса должны быть как можно проще, на грани примитивного :)

Нормальное словосочетание. В Яндексе -- Результат поиска: страниц - 5580, серверов - не менее 168

Насколько известно науке, никак

Всего: 240