вот его слова "
там сделано кактой библиотекой, я в ней не разбирался
т.к. проще на пхп именно"
подскажите как это сделать ?
mysql_query("SET CHARACTER SET UTF8");
знакомый сказал "хм.... это не совсем реализуемо , у тебя чутка другой способ коннекта"
Все это я делаю только под гугл
Вот то что быстро накапал.
http://blog.dimok.ru/optimizatsiya-robots-txt-dlya-wordpress
Allow и Disallow
"Разрешается, и, соответственно, запрещается доступ к некоторым разделам сайта, либо к всему ресурсу целиком. Allow поддерживается только Яндексом и Гуглом."
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=156449
вот тест:
Строка Allow: /*?$ разрешает доступ ко всем URL-адресам, оканчивающимся знаком вопроса (то есть ко всем URL-адресам, которые начинаются с названия домена и содержат цепочку, заканчивающуюся на ?, после которого нет других символов).
Например, робот Googlebot поддерживает расширенное определение стандартного протокола robots.txt. Он распознает директивы "Allow:", а также некоторые типы соответствия шаблону.
"Зачем такие мутки? Морда в индексе не нужна?"
User-agent: Googlebot
Allow: /index.php
морда прописана. не все скопировал.
Зачем такие муки?.. просто не уникальный контент на пагах, я его закрыл для индексации. а что уникальное открыл.
zend921 добавил 19.01.2010 в 12:30
одну ошибку нашел. надо вместо Dissalow: / - Disalow: / ..
вообщем там правильно да
User-agent: *
Dissalow: /
Allow: /страница.php
Allow: /страница1.php
Allow: /страница2.php
запретить все. и разрешить то что надо
\
/ru/forum/comment/4532986
а почему здесь тогда пишут "как запретить индексацию всех страниц кроме главной в robots.txt?"
disallow: /
allow: /index.php
=----- Такая конструкция запрещает скачивать весь сайт!
Не нашел.
Так не правильно будет?
Кто-нибудь может посоветовать где видео файлы добывать от 100мб с англ. описаниями.. стану рефом на хотфайле.