makclit

makclit
Рейтинг
124
Регистрация
08.09.2008

Да с рамблера интерно было , теперь с рамблера и вообще

У меня сайт о кот. данная тема рамблер отсканировал 1700 страниц на данный момент трафа 170-180 хостов, позавчера было страниц в индексе 811 - трафа 75 -90. На сайте около 50 кило страниц если пропорция сохранилась бы ..... было б совсем неплохо. По данным сейчас Рамблер 4 поисковик рунета после ЯШИ ГУГЛА И МАЙЛА и это факт

Ксатаи по стате форума ГУГл можно считать лидером если учесть Гугл ру , ком и уа

На этом форуме стата общедоступна по кнопке LI перейди , в источниках глянь, примерно втаком соотношении траф с поисковиков должен быть при проидексированности сайта всеми

а было где-то 1300

Какой траф был не секрет?

Да сервис ГУГла так выдал ( на два разных сайта карту делал http://sitemap.nildesign.ru/ результат одинаков). После реги сайта в сервисе гугла и отправки ему Сайтмапа в индекс попали 300 страниц как раз тех которых нет в сайтмапе, до этого было около 20 , а сайтмаповские УРЛы как пишет посмотрите позже . Яндекс тоже пошел по пути Гугла не то индексирует ВОТ и парюсь щас как правильно БОТОВ направить, есть мысль : может это из-за того что те страницы HTML ,а нужные адрес типа xxx.php?str- здесь от 10000 до 120000. Вот Рамблер сканирует все правильно и если так дальше пойдет даже с рамблера трафа норм получится возможно (конечно ЯШУ и ГУГЛА он ни как не заменит)

makclit добавил 14.10.2008 в 15:10

makclit:

User-agent: *
Disallow: /directtory/*

Работает, блин сразу не допер

Что то вообще сижу и думаю нафиг за этими пузомерками погнался сайт изначально создавался с целью получения трафа,а не ТИЦ и ПР

makclit добавил 14.10.2008 в 14:31

Это получается что если прописать

User-agent: *

Disallow: /directtory/*

то директория directtory будет запрешена для индексации?

Всего отсканированных URL-адресов в файле Sitemap 0
Проиндексированные URL-адреса в файле Sitemap. –

У меня отсканировано 118 а проиндексировано - до сих пор отправил пару дней назад

Сайтмап вроде бы сделал на основе чего уже писал. Вгугл отправил но как индексил каталог сайтов так его и кушает было в индексе 22 страницы в гугле когда начиналась эта тема, все стреницы с этого каталога, теперь в гугле более 300 страниц и опять же все с этого каталога. В сайтмап ссылку на каталог удалил, отправленных 118 - вроде на обработке. Сегодня проверил в ЯШЕ наконец добавились страницы, но вот опять же с каталога ни одной нужной. Нафиг убрать его чтоли надо. Пока не буду беки кучей добавляются пока подожду. Вот вопрос никогда не пользовался РОБОТ ТХТ подскажите как его написать правильно надо всего одну ссылку запретить и если боты в каталог залезли они теперь и вдальнейшем будут в него лезти даже если им туда дорогу запретить?????

Вроде бы все нашел ошибку вот и не получалось, гугл ОК пишет (будем ждать что получится).

Теперь вот в ЯШУ бы достучаться чтото не хочет уже вторую неделю индексировать, ни у кого проблем последнее время не было, а то у меня сайтов пять в индекс не попадают.

Гугл выдал следующее:

Тип файла Sitemap. Веб

Формат Sitemap

Отправлено 12 ч. назад

Дата последней загрузки, выполненной Google. 12 ч. назад

Статус Ошибки

Всего отсканированных URL-адресов в файле Sitemap 118

Проиндексированные URL-адреса в файле Sitemap. Нет данных. Повторите попытку позже

Ошибка разбора

Мы не смогли прочитать ваш Sitemap. Возможно, он содержит нераспознаваемую для нас запись. Проверьте свой Sitemap перед тем, как передать его повторно

Раз отсканировал URL значит проиндексирует?

А сайт мап делал с помощью сервиса http://sitemap.nildesign.ru/ Взял результат и вставил в файл САЙТМАП.ХМЛ ну подредактировал крап некоторые УРЛЫ удалил. Он мне при открытии и выдавал следующее в конце:

"Не удается отобразить страницу XML

Не удается просмотреть ввод XML с использованием списка стилей XSL. Исправьте ошибку и затем нажмите кнопку "Обновить"или повторите попытку позднее. "

По моему чтото связано с тегом URLSET закрывающим файл?

Добавил сайтмап вопрос правильный или нет хотя гугла пишет что все ошибки покажут.

Ладно гугл вот яндекс чтото не хочет индексировать это даже хуже может мне все нетерпится надо подождать наверное

то же интересует

Яша съедал сайты на ура по 35-50 к страниц. Недавно решил посмотреть что с гуглом с него трафа было мизер и заметил что гугл индексирует всего по 1-2 к страниц в лучшем случае. последний сайт добавил во все поисковики (гугл янндекс и рамблер) траф пошел с рамблера. никогда такого не было всегда яша только посетителей давал. Ну и решил отследить индексацию страниц по поисковикам. В яндекс попала только гланая страница, там уже стоит с неделю и никаких сдвигов, в рамблере 811 как он пишет (что сомнение), а в гугле 22 и то!!!! Чтобы побыстрее проиндексировать??? воспользовался авто обменом ссылок, он моментально ставит с 1000 ссылок( ну чтобы боты заходили) на сайт приходится ставить их каталог, вот этот то каталог Гугл и съел не весь конечно. Вот теперь и встал вопрос правильности направления поисковых ботов

makclit добавил 12.10.2008 в 17:41

За ггл спасибо раньше без реги заходил. сайт свой добавил теперь просят добавить файлы сайтмап вот и вопрос как их сделать

Всего: 293