У меня при схожей посещаемости (только в заоне Ру) посещаемость падала плавно в течение года, после анонсирования гуглом постепенного введения поиска по фактам. В результате траф просел вдвое.
Да, с естественными ссылками сделать ничего нельзя. Разве что снизить удобство их проставления, но это не хорошо, я считаю - удобство должно стоять на первом месте.
Хорошо бы если так. На меня тоже куча трастовых ссылок с крупных издательств, даже с госсайтов есть, и по телевизору разок засветился. Только по моим ощущениям сейчас влияние такой трастовости резко снизилось.
Что есть, то есть. У меня абсолютно аналогичная картина. В последние пару-тройку лет манимейкеры прочухались и стали клепать однотипные сайты пачками, практически убили нишу. С меня в частности кучу клонов сделали. А поисковикам пофиг, что у меня работающие сервисы, а у клонов - заглушки, т.к. повторить так и не смогли (хотя и на фрилансе исполнителей искали).
И не просто новичкам, а автоматически сгенерированным дорообразным новичкам. Гугл хоть афилиат в топ не пускает, а яндекс по четыре таких ГС (точно принадлежащих одному владельцу) в ТОП10 держит. Дизайна нет, шаблоны там кривые, контент - комбинированный копипаст, включая защищенный авторскими правами (кстати, правообладатели в курсе, но не знаю какие меры будут предпринимать). И эта хрень пролезла в топ после введения поиска по фактам. У яндекса после запуска палеха наблюдается схожая картина.
У меня впечатление, что гугл искусственно ограничивает трафик с выдачи для таких трастовых (но не супертрастовых) сайтов, т.е. создается ощущение, что он выделяет некие квоты трафика - разным сайтам разные квоты.
Вот и у меня руки опускаются. Недавно бегло просмотрел рекомендации гугла асессорам и обратил внимание на примеры (и признаки) наилучших сайтов и наихудших. Так вот я сейчас наблюдаю, что в выдаче стабильно засели сайтиы, по всем признакам относящиеся к наихудшим. И что в такой ситуации делать? Вслед за ними автоматически плодить множество ГС-ов?
Уже :). На русском узкую инфу по программированию вообще как то сложно стало найти.
И всё же хотел бы получить совета по миганию в выдаче. Имеется старый трастовый сайт с сотней тысяч обратных естественных (по настоящему) ссылок. После перехода на ранкбрэйн в гугле началось мигание: по многим запросам сайт находится либо полностью ВНЕ выдачи (хотя в индексе есть) либо в ТОП1-2. С периодичностью в месяц-два происходит ротация запросов: по одним запросам сайт полностью исчезает из выдачи, по другим (ранее исчезнувшим) появляется вновь (в топ1-2). И так по кругу. У старых трастовых конкурентов (даже с миллионом беков) наблюдается аналогичная картина (или в ТОП5 или полностью вне выдачи), только в значительно меньшей степени. ГС-ов и дорообразных сайтов эта проблема не касается - они прекрасно живут в выдаче - ниже-выше, но не мигают.
Я грешу на три возможные причины:
1) Большое количество прямых ключей в естественных бэках. Но на это я повлиять не могу, т.к. ссылочная масса по настоящему естественная (и сейчас и в прошлом).
2) Очень много схожих сайтов-конкурентов с большим количеством пересекающихся текстов и заголовков, плюс большое количество схожих клонов и прямых копипастных клонов (были и продолжаются попытки завалить сайт клонами, ддос-атаками и пр). Но здесь я могу попробовать расширить спектр информации, это в моих силах.
3) Гугл ввел искусственные ограничения на общий трафик с выдачи для каждого топового сайта, чтобы исключить монолитность выдачи, сделать ее более разнообразной.
Как думаете, какой вариант наиболее реален?
Имхо, как разовая работа это не интересно ни вам, ни исполнителю, т.к., действительно, большая часть усилий и времени уйдет на знакомство исполнителя с вашим проектом и фреймворком, особенно если там всё самопис. Непродуктивно будет. Лучше с исполнителем выстраивать долгосрочные отношения, тогда смысл появляется.
Не в индексе дело, а в ранжировании. В индексе эта инфа присутствует, но сейчас она стала вытесняться статистически популярной общей поверхностной хренью. Я это неудобство первый раз заметил, ищя решение проблем по фразам из логов ошибок. Вот какая то программа выплевывает ошибку, я кусок сообщения об ошибке копирую и вставляю в поиск... Раньше проблем не было -на первых местах как правило стояли тексты с точной цитатой сообщения об ошибке и с решением проблемы. Но после выхода новых ИИ алгоритмов начались проблемы - приоритет получили статистически популярные страницы с общим описанием тематики, в которых может отсутствовать половина терминов из моей фразы, и в которых конечно же нет решения моей проблемы, а есть общее описание тематики. Да, результат вроде бы формально соответствует запросу, но толку от него нет.
chos, я думаю, надо еще подождать. Например, у меня позавчера был заметный всплеск доли с гугла примерно на 4% (+4000 уников), а вчера резкое проседание с гугла на 8% (-8000 уников). В общем качели идут.
Какой из этих элементов в ваших примерах сайтов присутствует? Я не вижу ни одного.
Как вы себе это мыслите? В суд надо идти с доказательствами. Фотку вы убрали. Скриншоты доказательством не являются - жмете в браузере правой кнопкой мыши, входите в инспектор кода и меняете страницу, как угодно, потом делаете скриншот. В общем это ерунда. Нужно нотариально фиксировать нарушение, но это деньги, а чтобы потратить деньги нужна уверенность. Если бы факт нарушения ими был по нормальному зафиксирован, они бы вам выслали не скриншот сайта, а скан нотариально заверенной страницы.
Короче, не надо ничего им отвечать. Фотку удалили и забудьте.---------- Добавлено 12.02.2017 в 00:47 ----------Вот я бы как действовал на месте реального правообладателя? Я бы, не раскрывая сразу карты, сначала выяснил бы имя и координаты ответчика, потом бы нотариально зафиксировал нарушение, подготовил бы исковое заявление с предложением досудебного урегулирования и после этого бумажным письмом с описью вложения выслал бы этот пакет документов ответчику. Электронные письма вообще бы не слал. Зачем?
Но если бы у меня стояла цель не судиться в реале, а лишь устранить нарушение, то я ограничился бы электронными письмами с угрозами судебного преследования и пр.
Да в том то и проблема, что нас почти сравняли с домохозяйками и пенсионерами, которые вводят запрос на обывательском языке. Это раньше при старых добрых ламповых прямолинейных алгоритмах поиском можно было легко управлять грамотным построением искомой фразы, а после введения "интеллектуалного" поиска по фактам начались проблемы... Сейчас узкотематическую конкретику стало намного сложнее найти: ввожу очень конкретную фразу (специально подобрав слова), а на выходе получаю тематически обобщенную хрень. Гугл может тупо считать часть слов искомой фразы не важными. Например если меня интересует решение проблемы в конкретной версии дебиана, то он может посчитать, что мне лучше про юбунту или просто линукс почитать... В итоге заметил, что в последнее время стал постоянно пользоваться кавычками и языком запросов, хотя раньше таких проблем не было. И яндекс туда же потянулся со своей нейронной сетью...
Там вообще не понятно, что именно вы продаете. Там я вижу голый Друпал с пятью пустыми страницами-заглушками. Там и 10 минут достаточно. Но мне не понятно, кому это нужно в таком виде?
Это если продавать как есть, без индивидуальной настройки под клиента.
Если же нужна индивидуальная настройка в виде создания определенной структуры, настройки дизайна и т.д., даже если это будет делаться исключительно мышкой и средствами готовых модулей (например в друпале), то на вникание в задачу клиента, уточнение деталей и простую настройку уйдет минимум рабочий день. Плюс к тому как правило потребуются дальнейшие консультации (и обучение клиента работе с сайтом) на первых порах.
Итого, вы оцениваете свою работу менее 20 центов в час? Ну, ну.