DyaDya

DyaDya
Рейтинг
147
Регистрация
11.04.2007
lokki.com:
какой программой можно открыть файл .htaccess чтобы его отредактировать?

Как и любой другой обычный текстовый файл. Просто у него название интересное, не более того.

Другое дело, что нужно еще знать, что в нем прописать?!

romasenco:
а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?
сам вроде все прочитал, вроде понял, но лучше когда это сделают профи

Создайте файл robots.txt

с директивами:

User-agent: Yandex

HOST: ваш_домен.ру

Уверен, если вам ничего больше ненужно, то и не заморачивайтесь.

Проверить свой роботс можете здесь: http://www.yandex.ru/cgi-bin/test-robots

Ryoga:
Срочно необходимо присоединиться к сообществу горе советчиков. Искренни считал, что знаю синтаксис robots.txt. Теперь буду только читать форум, задавать вопросы но не советовать.☝
Ps постригся в монахи :(

Я сначала, именно как вы и хотел написать (казалось, что так логичнее и оптимальнее ;), а роботы считают иначе), но получше изучил спорный момент и все стало понятно. Я уже писал этот пункт, повторю для Вас еще разок:

Исключение составляет строка User-agent: *. Она означает, что следующие за ней Disallow относятся ко всем роботам, кроме тех, для которых есть свои строки User-agent.

Кстати, вроде тоже корректно и должно быть правильно:

1. В одной секции указываем для всех роботов общие инструкции

2. В дополнительной секции для яшки указываем его дополнительную инструкцию HOST (ибо её ввёл и понимает только яшка: http://webmaster.yandex.ru/faq.xml?id=996583).

User-agent: *

Disallow: /catalog

User-agent: Yandex

Disallow: /catalog

Host: moyhost.ru

Для каждого робота пишется своя группа инструкций. Это означает, что робот может быть упомянут только в одной строке User-agent, и в каждой строке User-agent может быть упомянут только один робот.

Исключение составляет строка User-agent: *. Она означает, что следующие за ней Disallow относятся ко всем роботам, кроме тех, для которых есть свои строки User-agent.

http://www.rambler.ru/doc/robots.shtml

1. Источник с которого переносили, наверняка же остался.

2. Залейте phpMyAdmin и подключитесь к базе данных (только аккуратно, не убейте что-нибудь нужное). По играйте с кодировками. Обычно самый простой способ, залить дамп заново, например, с помощью phpMyAdmin, но с правильно выбранной кодировкой.

Если не справитесь, то хоть покажите пациента. Может более правильные выводы можно будет сделать.

Может кто-то просто корявый парсер написал ;)

sergey_k:
Разместил 6 вариантов статьи на 6 сайтах за $12. В течение пары месяцев отслежу результат и отпишусь.

Вот это действительно были бы настощие отзывы, если после размещения пользователи услугой отписывали бы, как повлияло размещение статей на этих сайтах на позиции ваших? положительно, отрицательно или без изменений ;). Как дела с проверкой на непот и т.п.

lokki.com:
оки!тогда другой вопрос:что это за робот???в списке робатов яндекса я такого невидел......😕

ДолжОн быть! http://ru.wikipedia.org/wiki/User_Agent

Solmyr:
...Думаю, никто не будет спорить, что есть такие сайты и такие запросы, по которым можно за один день в ТОП5 подняться...

Только нужно не забыть нажать кнопу "АП" в яшке. А то похоже они там уснули. Вот уже дней 9 уже АПа серьезного нет (http://analyzethis.ru/?analyzer=update - я уж подумал анализатор сломался ;) ).

И как в таких условиях стабильности выдачи за 1 день сайт в топ вывести? ;)

Если только под фильтр попадут все сайты, что выше продвигаемого?! ;)

1. Пришлите содержимое .htaccess

2. Я сам движок не копал, но по смыслу существует вероятность, что нужно будет покапаться в коде движка. (тогда дайте еще и адрес откуда можно скачать вашу версию движка)

Всего: 2917