В общем случае робот не обращает внимания на глубину вложенности таблиц. Влияние имеет положение слова относительно начала документа: ближе -- лучше. Робот, насколько я понимаю, просто "вычищает" HTML, разумеется, обращая внимание на ссылки, alt для img и тому подобные важные для него вещи :)
В любом случае их надо искать там, куда они пишутся :). Если у Вас платный хостинг -- обратитесь в саппорт за разъяснениями. В случае бесплатного хостинга Вы, скорее всего, логов никогда не увидите.
Для каждого сайта лог пишется отдельный (как правило).
Естественно, в лог пишутся все обращения к сайту. Отличить можно по user-agent'у.
Пятую можно :) Вроде нормальная
какой?
Есть такая вещь, как логи сервера. В них на сервере, где находится сайт, пишется то, что определено настройками данного сервера (виртуального хоста). Обычно пишется IP-адрес, с которого пришел запрос, дата и время, запрошенный файл, код ответа сервера, размер переданных данных, реферер и юзер-агент (в случае апача)
Если Вы имеете в виду тэг <noindex> -- его понимают только рамблер и яндекс. Можно для запрета конкретных страниц использовать <meta name="Robots" content="noindex">. Но через robots.txt и гибче, и удобнее.
ничего не понял. Что конкретно Вы хотите сделать? Могу помочь, пиши в личку.
Хуже, по-моему. Ключевые элементы интерфейса должны быть как можно проще, на грани примитивного :)
Нормальное словосочетание. В Яндексе -- Результат поиска: страниц - 5580, серверов - не менее 168
Насколько известно науке, никак