- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Ошибку с перелистыванием страниц исправил. Добавил создание sitemap.xml и robots.txt. Версия 3R2.
Консольная не запускается почему-то. Пишет что лицензии нет типа.
Еще глюк, при использовании макросов [KEYWORD], [BKEYWORD] удаляется символ справа от закрывающей скобки, т.е. если <H2>[BKEYWORD]</H2>, то на выходе в страницу получим <H2>голые бабы/H2>
ApocX добавил 26.07.2009 в 15:10
И еще, если несколько раз в шаблоне вставить [SITE_NAME], [HEAD_CAPTION], то первые два он заменит на нужный ключ, а вот последующие так и остануться макросами =(
Еще бы макрос [N] добавить - Номер страницы.
И [RAND-x-y] рандомное число
ApocX добавил 26.07.2009 в 15:10
И еще, если несколько раз в шаблоне вставить [SITE_NAME], [HEAD_CAPTION], то первые два он заменит на нужный ключ, а вот последующие так и остануться макросами =(
C [SITEMAP] вроде такая же трабла - там вообще 1 раз меняется.
Вышла версия 3R3. Сделана многопоточная заливка по FTP. По умолчанию стоит 5 потоков, но можно увеличить до 10. Количество потоков указывается в файле options.txt в строчке ftp_threads=5. Скорость заливки в 10 потоков Вас приятно удивит :) Я даже сам до этого не думал, что можно достигнуть такой скорости. Но учтите, что некоторые ftp-серверы глючат при заливке больше, чем в 3 потока. Особенно это касается фри-хостов.
Устранён глюк, при использовании макросов [KEYWORD], [BKEYWORD].
Также сделал, чтобы [SITE_NAME], [HEAD_CAPTION] и [SITEMAP] можно было вставлять в шаблон много раз.
Добавил макрос [RAND-x-y].
JakoKruzo добавил 27.07.2009 в 16:59
Про robots.txt забыл сказать. Директива Disallow не обязательно должна содержать что-нибудь. Пустой Disallow: это тоже самое, что и Allow: /
Всё написано вот тут - http://help.yandex.ru/webmaster/?id=996567
Ай маладца!
Пошел качать...
спасибо за новую версию! Автор молодчина)!
ты не учёл что директива Allow существует только для яндекса )
Если на то пошло то в Вашем "правильном" примере
правильный вид такой:
User-Agent: *
Disallow: /rss.xml
Host: site.com
Sitemap: http://site.com/sitemap.xml
не все правильно - Host - деректива являеться корректно только для Яндекса и Allow не только для Яндекса
Отдельные роботы (например googlebot) понимают директиву Allow
и http://www.google.ru/support/webmasters/bin/answer.py?answer=40360&ctx=sibling
и гугл сам ее использует http://www.google.com/robots.txt :).
Нашел еще баг. Некоторые сылки в названии постов как то странно режит. Например статья называется "Смотреть порно" ссылка будет http://dor.ru/motret-porno.html, некоторые нормально.