bad1

Рейтинг
188
Регистрация
02.02.2003
Должность
CTO

У меня стало заметно именно с 23-го на 24-е, вместе с основным анонсом, а я не имею никакого отношения ни к варезу, ни к кино либо прочим классическим "радостям" жизни, поэтому и написал отдельный топик :)

solam:
Прошу скинуть ответы на вопрос belyi05 в ПМ

их не было пока )

Поскольку ответы уходят в личку, данным сообщением я полностью копирую вопросы пользователя belyi05 и буду с благодарностью ждать нового входящего сообщения :)

Никаких невероятных результатов само по себе размещение статей на ezinearticles / associated content / squidoo и т.п. не даёт. Но, как минимум, хуже от таких ссылок точно не становится, а набрать их неконтролируемо много всё равно невозможно.

Dmitka, пока не так много людей размяли на тебе свой саркастический талант (заслуженно, кстати) скажу тебе, что страшного ничего нет. Не надейся ни на что - просто методично работай, спокойно добавляй контент и старайся размещать ссылки на свой сайт там, где это будет уместно. Прояви фантазию. А изучение второго индекса оставь профессионалам, тебе туда рано, да и незачем.

Digital-angels:
Как-то странно растет количество показов. Наводит на мысли о лимите. Почему-то...

Идентичная картина.

По самому траффику часто такая же ситуация +-0,5% разброс по дням.

BasterYC, клиент-сайд обёртки, для API и всяких других штук :)

maxjoin, ok, спасибо, я одного не понял - что вы подразумеваете под проблемами с внутренней перелинковкой?

Maxoud опередил по поводу JS. Сайт проектировался таким образом, что бы быть доступным роботам очевидно не использующим JS ;) Всё остальное - чисто клиентский функционал, надстройка.

maxjoin, по поводу урла - робот его в таком виде не получит, для него это будет http://sararte.com/the-new-informality-one-1817407/, и в любом случае всё что после хэштега значения для поиска особого не имеет (хвост после # нужен нам что бы восстанавливать пользовательские данные и историю).

А контент 100% не уникальный - но речь идёт не про страницы продукции, которые в индекс попадают (и на которых выжимается максимум уникального из "неуникального" контента, за счёт кучи фильтров и ручного труда по формированию правил для лучшей читабельности), а о том, что разделы даже не думают индексироваться, при наличии уникального контента, написанного под каждый из них.

Хотя, может быть как следствие наличия неуникального контента всё жестоко прессуется, но с другой стороны - в выдачу по низкочастотным кеям в этой нише постоянно встают дорвеи на миксе вот на этот раз 100% неуникального контента, который разительно отличается от того, что у нас на сайте. При этом спам минимальный (я в курсе, что ссылки можно скрывать от поиска и т.п., и про лом тоже в курсе - спам действительно минимальный, смотрел всё). Это то и сбивает с толку.

Парни, спасибо за участие, если резюмировать я так понимаю предположение заключается в том, что проблема в robots.txt

Тут несколько моментов:

1) в моём robots к гуглу относятся только первые 12 строк, и он об этом в курсе;

2) я на всех сайтах тестирую robots.txt через инструмент в панели вебмастеров гугла, раздел Crawler access (там конечно всё ок);

3) раздел Crawl errors там же, закладка Restricted by robots.txt - тоже инструмент, который позволяет следить за очевидными оплошностями;

4) даже если бы тот же /table-lamps--/ был заблокирован в robots.txt, он бы был в индексе гугла т.к. в тексте самого html-документа нет никаких указаний на запрет индексации.

P.S. раздел /chandeliers--/ на который так же ведёт масса ссылок с внешних ресурсов, в том числе трастовых, и у которого стоит параметр daily в Sitemap - кэш от 28 августа. Боюсь, проблема не в robots...

Всего: 423