bulatbulat48

Рейтинг
94
Регистрация
27.04.2012
Alexplague:
Ребята выручайте, сайт очень медленно заходит в поиск может по 2 месяца не индексировать. Контент добавляется только уникальный, добавляется довольно часто, возраст домена больше 10 лет. Может с роботс я что-то накосячил?

---------- Добавлено 26.01.2015 в 11:36 ----------

Ах да сайт забыл написать http://kurantynew.ru/

---------- Добавлено 26.01.2015 в 11:36 ----------

Ах да сайт забыл написать http://kurantynew.ru/

покажите новость которая долго не заходит в индекс?

по-моему не первая тема уже про то что никаких проблем с robots.txt нет, но почему-то вылезают такие предупреждения. Хотя вроде никто так и не показал сайт.

awasome:
1+1? Или все-таки xiaomi? На первом циан вроде.

ага, перепутал..

Тоже замечал при ручной покупке всех ссылок, появлялись левые страницы.. пруф

Privod:
Вообщем недавно купил себе nexus 5, все устраивает, но надо же его помчать. Вообщем кто пользует посоветуйте кастомную прошивку, желательно с обоснованиями.

На нексус если запиливать кастом то только новинку, которая еще не пришла по воздуху. Запиливал так лолипоп, ну 2 недели разницы в обновлении.. для гиков.. Ну или в инстаграм запостить, что новая версия уже)

---------- Добавлено 22.01.2015 в 11:30 ----------

medea:
Я просто рут сделал и выкосил всё что можно выкосить. Гуглплюсы там всякие, хэнгаутс и пр.

зачем хенгаутс то?))

---------- Добавлено 22.01.2015 в 11:31 ----------

awasome:
А что тут понимать? Сток - лучшая прошивка. Ну мб можно попробовать miui, если она для него есть.

О, дааааа :)

Если для miui, то лично я бы взял oneplusone..) но я фанат стока)

Посмотрите ваши запросы по региональности.. можно через lr МО (1) и МСК (213) или tune.yandex.ru. Так же их и присваивайте в вебмастере яндекса или g+

DsElmo:
Все заработался называется: правильно же:

Сайт с базой резюме, каждое резюме это номер ИД - например: сайт/resumes/companion/1337/, сайт/resumes/companion/1338/ и т.д.
Мне нужно чтоб категория индексировалось, а резюме сами нет ( цифры это как раз резюме каждого )

User-agent: *
Disallow: /resumes/companion/
Allow: /resumes/companion/$
Disallow: /resumes/marrieds/
Allow: /resumes/marrieds/$
и так далее

Правильно ?

правильно :)

grafillo:
у меня файл робот тхт такого вида
User-agent: *

Disallow: /*.swf


я из яндекса удалил ненужные проиндексированные swf и они удалились, сегодня захожу и они опять в поиске проиндексировались,почему они опять проиндексировались ошибка в робот файле или где?

Роботс верный, я бы добавил $:

User-agent: *

Disallow: /*.swf$

Robots.txt для поисковых систем, только рекомендация, они могут индексировать файлы, даже если они запрещены.

Nikkin:
Страница: /support/partner/ - должна быть открыта
Подстраницы: /support/partner/все-что-угодно - должны быть закрыты

как это прописать в роботсе, друзья?

User-agent: *

Disallow: /support/partner/

Allow: /support/partner/$

---------- Добавлено 13.01.2015 в 18:01 ----------

wssmedia:
Вот у меня такая проблема:
У меня есть новостной сайт, довольно таки популярный и для каждого региона есть свой поддомен. Все новости видны во всех доменах.
Страницы быстро индексируются и так же быстро выпадают из индекса, точнее заменяются другими страницами из другого поддомена, не из основного. В гоугетлинкс из-за этого возникают проблемы. Как закрыть индексацию на других поддоменах? При этом надо закрыть страницы типа http://поддомен.домен.ру/news/* , а http://поддомен.домен.ру/ должен индексироваться.

В поддомен кладете robots.txt:

User-agent: *

Disallow: /news/

Сайт: Альвогений

Раздел 1: /World/Russian/Бизнес/Здравоохранение/Товары_и_услуги/Питание/

Раздел 2: /World/Russian/Здоровье/Лекарства/

Подскажите в какой раздел лучше добавить? и возможет ли тут региональный раздел?) Спасибо.

Всего: 780