Dimank

Dimank
Рейтинг
172
Регистрация
16.03.2007
Дмитрий
Miracle:
А у вас проекты на одном сервере с одним айпи?

Основной проект на одном сервере, а остальные все на другом...

Второстепенные проекты (5-6 сайтов) ТИЦ примерно на том же уровне остался (+/- 30-40).

Основной проект - ТИЦ резко упал))) с 3700 до 1200. Ссылки ни когда не покупались. Либо естественные, либо со своих 5-6 второстепенных проектов идут.

Tecak:
Тоже зафильтрует.
Чтобы не фильтровало поддомены их нужно раскидывать по разным NSам, локациям и ip. А на основном домене вообще ничего не должно быть.

Спасибо, понял... заморочно немного, проще новый домен будет использовать.

Заказывал у Дмитрий консультацию, все хорошо, понятно и подробно мне объяснил по Скайпу. Сейчас планирую заказать аудит 2-х проектов. По эффективности пока сказать не могу, но думаю что уже в ближайшие 3-4 недели какой-то эффект от проведенных мероприятий будет, и я обязательно дополню свой отзыв.

Спасибо!

CTRLISTING:
Есть такой способ определения:
В браузере вбиваете https://yaca.yandex.ru/yca/cy/ch/ и тут ваш сайт, и смотрите на результаты если пишет ТИЦ - 0 или выше, то сайт не под АГС, если пишет ТИЦ не определён, то сайт под АГС. Но вообще мне всегда pr-cy и xtool достаточны для определения того под АГС сайт или нет.

Относительно вывода из АГС то читайте, уже не один раз и тут обсуждалось это, да и просто если загуглить то море информации найдете по этому поводу.

Спасибо. Пишет ТИЦ - 0. А xtool и pr-cy пишет что "агс".

Вообще реально вывести из под АГС, или проще на новый домен перейти? (к тому же проект достаточно молодой еще)

NeMaster:
Есть сайты которые живут без robots.txt и нормально себя чувствуют.
Ищите другие проблемы, меняйте хостера.

Был закрыт доступ к сканированию сайта на 3 недели. Вопрос сейчас стоит - как вернуть индексацию и скоро ли вернутся все страницы в поиск? (на опыте других проектов, например)

Может еще какие-то рекомендации получить.

Добрый день!

Выяснилась еще такая ситуация - файл robots.txt был все таки недоступен не один день, а более 20 дней :( (с 10 февраля по 5 марта). (хостер поставил запрет на сканирование на уровне сервера, и мы это поняли только вчера)

Вчера все вернули на место. Но пришло все равно сообщение от Google о том, что процент ошибок доступа к robots.txt 98% сохраняется.

Сейчас вопрос с хостером до сих пор решаем. Но хотелось бы услышать мнение людей, которые уже сталкивались с подобной проблемой. Если мы все таки сегодня сумеем полностью открыть доступ к robots.txt - то как долго примерно ждать возврат индексации (и трафика на сайт)?

И кстати, по Яндексу аналогичная проблема, но страницы ушли из поиска и упал трафик только вчера.

Fetch пробовали, статус - временно недоступен.

Инструмент проверки robots через ГВМ постоянно сообщает "Произошла неизвестная ошибка. Идет проверка." Как еще через ГВМ можно обновить вручную?

callidus:
Научите меня так работать в течение месяца, чтобы о сайте можно было реально забыть и только снимать лавандос.

PS - если не поняли, это насмешка, такого не бывает

обучением незанимаюсь, кому надо тот сам научится

естественно надо месяц поработать, успеть организовать работу, наладить монетизацию, и потом контроллировать еще придется но это 30 минут в неделю

Да не, в этот проект душу не вкладывал, так типичный специализированный портальчик. Кстати 12-15 в месяц он оказывается приносит.

Окупаемость действительно 5 лет, если купить и вообще ничего не делать с сайтом. Если месяц поработать над ним то за 2 года окупится.

Дешево продавать не буду - не вижу смысла (2% в месяц проект приносит абсолютно пассивно, если считать от суммы 600 тр).

Кстати за 200 тр сам бы купил несколько таких сайтиков, так что если есть предложения - велком в лс. :)

Всего: 227