Slavomir

Slavomir
Рейтинг
107
Регистрация
05.12.2005
TBAG:
Проблема не в технической части, а в том, что такие данные раскрывают алгоритмы ранжирования т.е. конспирации... это конечно будет выгодно веб мастерам для манипуляций, вот я и удивляюсь от чего Гугл такой щедрый))

Алгоритм будет раскрываться, только если будет возможность играться с показателями ссылок. Поэтому я и сказал, что параметр ссылки вебмастером должен выставляться однократно. Если система бинарна, то вебмастер сможет один раз сказать, учитывать эту ссылку или нет. Если система дифференциальна, то один раз выставить некую оценку доверия данной ссылке. Я бы сейчас с удовольствием поудалял бы ряд явно левых ссылок непонятного происхождения.

Straifer1:
Надеюсь они в новом инструменте по снятию ссылок будут подсвечивать плохие ссылки красненьким, а хорошие зелененьким, раз уж их мега алгоритм умеет их определять, и геморроя вебмастерам меньше, гадалку не нужно будет нанимать... 🤪

Может вам еще и кнопки "Поместить в ТОП10", "Поместить в ТОП5" и "Поместить в ТОП1" сделать? 😂😂😂

Fessen:
Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.

Вероятно потому что ПС не может проиндексировать весь новый сайт сразу, да еще с одновременной индексацией старых сайтов и сопоставлением всего со всем. Это требует времени. А потом уже в действие вступают АГС и его аналог у Гугла.

Fessen:
Вы точно так же не знаете, что "не возможно" сделать, как я не знаю, что "сделать можно".

Извините, но вы говорите полную глупость. Вы просто посчитайте. Возьмем скромный сайт с 1000 страниц размером всего 10 кБ. Чтобы выкачать весь этот небольшой сайт за секунду потребуется пропускная способность канала под 100 Мбит. А теперь представьте, что только на одном сервере таких сайтов может быть от нескольких десятков до нескольких сотен. Какой хостинг обладает такими каналами связи? А если речь идет о сайте, где сотни тысяч страниц в десятки килобайт, то на него одного никаких каналов связи не хватит. А теперь представьте эту ситуацию на стороне серверов ПС, когда эти данные качаются с многих тысяч серверов и многих миллионов сайтов, а еще надо синхронизировать эти данные между серверами ПС.

TBAG:
Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!

Я вот не пойму, то такого сложного с введением данного инструмента. Очень сложно дополнительное поле добавить в БД с ссылающимися страницами и сделать в вебмастерс тулз интерфейс по однократному изменению значения данного поля? Думаю и с введением данного значения в формулу релевантности ПС тоже проблем быть не должно. Так в чем же проблема?

Fessen:
А по делу - самый явный признак ГС, который постоянно бросается в глаза - копипаст. Почему бы не ужесточить фильтры за разворовку контента. Ладно если кто-то на сайт выложил несколько статей, но в топе замечательно сидят полные дубликаты сайтов. Или это сверхтяжелая задача???

А вы сможете определить первоисточник, причем задним числом? Да и для нового контента все крайне паршиво. Какие бы механизмы ни ввела ПС, не факт, что свободный творец будет о них знать и ими пользоваться. Единственный реальный способ - одномоментная и очень частая индексация всего содержимого сети Интернет. Увы, это совершенно не реально реализовать.

Fessen:
Хотели бы обрубить ГС - уже б давно это сделали. 99% оптимизаторов работает по элементарно простой схеме, вычислить и заблокировать которую можно за неделю.

Ну, если вы такой умный, идите в отдел кадров Гугла или Яндекса и предложите им свой уникальный алгоритм отсева ГС. На форуме куча народа, который сможет дать оценку предложенным сайтам, прием оценки будут весьма точны, но вряд ли кто-то сможет выразить принципы этой оценки в машинном алгоритме. Специалисты поисковиков работают в этом направлении, прием так, что щепки летят во все стороны. Под фильтры попадают и сайты, где владельцы/продвиженцы неразборчивы в методах и сайты, которые совершенно ни в чем не замешаны. Вы думаете это так легко? Вот сейчас Гугл ввел Пингвина, который как бы режет за неположенную по мнению алгоритма ссылочную массу. Появились рекомендации по разбавлению ссылочного. Предположим, что рекомендации верны. Когда их применят к большинству продвигаемых сайтов, алгоритм опять окажется бесполезен или начнет рубить по новым критериям, не разбирая ни правых, ни виноватых. И так будет с любой попыткой автоматизации фильтрации. Компьютер пока еще невозможно научить со 100% вероятностью различать красивую картину от каракулей. Такова реальность.

---------- Добавлено 21.08.2012 в 22:29 ----------

fireXXX:
Slavomir, ну и не надо лезть со своим субъективизмом в чужие бизнесы и вам никто указывать не будет.
Вы идеалист, смотрите туда, где идея, а не там где выгода. Если продавливать ссылками выгодно - то этим будут заниматься и спрашивать мнение какого-то человека старой закалки никто не будет.

В принципе, вы правы. Я идеалист, т.к. от количества дерьма вокруг начинает тошнить. И проблема не в торговле ссылками, а в том, как это делается.

fireXXX:
И не надо тут делать вид, как-будто вокруг куча источников траффика.

Разумеется, ни о какой куче речи не идет. На коне будет тот, кто найдет те самые альтернативные пути, которые вполне существуют.

fireXXX:
Реклама в интернете со временем может стать такая же дорогая, как и биллбоарды. Было или еще есть золотое время, когда можно было посреднической конторе в инете вылезить за счет малых вложений, оно не должно быть вечным и нельзя говорить, что вот пофиг на гугл, щас я тут вам переставлю акценты в человеческом прогрессе и возьму траффик из каких-то других мест.

Почему вы решили, что так не надо говорить?

mynewgaleon:
Ну а как ему не страдать. Кто-то конечно знает бренд херц, буджет или сикст ну, а кто-то просто набирает "аренда авто". Упал траф - упали $$$. Или вы думаете что на "монстров" и гравитация не распространяется =).
Коллега не обессудьте.

Вот те, кто так набирает должны быть всего лишь бонусом, а не основой. Например, на одной конференции лично был свидетелем, как несколько немосквичей спрашивали у москвича рекомендации в какое такси позвонить. Компании, телефоны которых были в телефонной книге мобильника данного москвича в тот день получили еще несколько клиентов. Как и почему эти телефоны оказались в мобильнике, думайте сами.

А еще посмотрите на описанное вами с другой стороны. Чтобы продвинуться по этому запросу в Сети генерируется невообразимая куча откровенного дерьма в виде бесполезных страниц с ключевиками (то рерайт, что копирайт), сеток для продвижения, сайтов под ссылки, дорвеев и т.п. Когда я регистрировался на nic.ru, номер моего договора был в середине седьмой тысячи. Год назад регистрировал там одну общественную организацию. Номер договора перевалил за 1,2 млн. А сколько будет с учетом других регистраторов? О количестве зарегистрированных доменов и говорить страшно. И подавляющее большинство сайтов на этих доменах жуткое дерьмо для заработка или продвижения трафикового или SEO. Кто-то серьезно предполагал, то так будет продолжаться бесконечно? Вы посмотрите, как работал Вебархив раньше и как он работает сейчас. Уже и ПС начинают офигевать от потока бесполезного мусора. Вот и начали рубить, получив весьма идиотский результат. Качественные и информативные ресурсы улетели, а в топы вылезло то самое дерьмо, от которого следовало бы избавляться. Может быть когда ни будь и докрутят свои новые алгоритмы до нормального состояния, а вот то, что они откажутся от данного направления развития крайне сомнительно.

fireXXX:
У бизнеса нет четких правил и вы его тут на форуме стандартизировать не имеете права и знаний.
Поэтому, я бы на вашем месте не учил людей заниматься этим самым бизнесом.

Вы не на моем месте и совершенно не располагаете сведениями о моих знаниях и навыках, а потому не надо мне указывать.

fireXXX:
Сейчас многие виды бизнеса страдают и не из-за "отдельной" поисковой системы, а из-за главной поисковой системы. Это рекламная площадка для многих, для некоторых сфер она основная и не потому, что это упущение или тупость, а потому что это выгодно или было выгодно.
И не факт, что смогут найти ей альтернативу.

И кто виноват в том, что ставка сделана только на это, да еще в самом тупом виде, т.е. с переоптимизацией и продавливания ссылками? Давайте тогда пожалеем вылетевших дорвейщиков, отодвинутых от кормушки пильшиков госбабла и т.п. братию.

fireXXX:
А в выдаче сейчас говно.

С этим полностью согласен. В топе фуфло, мошеннические сайты, доры и один-два сайта на множестве позиций. Как я уже сказал, я и сам пострадал от нововведений Гугла. Сайт по ВЧ сейчас плавает в пределах 500-ой страницы выдачи, а в топе полный отстой. Расстраиваться по этому поводу не собираюсь. Произвожу некоторые изменения, которые носят разумный характер или не критичны для меня и пользователей. Поможет - хорошо, не поможет - хрен с ним с Гуглом, будем дальше искать другие источники трафика. В любом случае, это совершенно не отменяет вышесказанного.

mynewgaleon:
Это очень крупные прокатные компании, монстры как кока-кола или старбакс. Кого и кому гнать это их личное дело, вопрос на который я пытаюсь дать ответ был в другом -


---------- Добавлено 20.08.2012 в 11:42 ----------


Эти ребята bls.ua также довольно крупная фирма (знаком лично с директором) и тоже улетел их основной сайт.
Зато теперь по запросу "прокат автомобилей" в google.com.ua есть такое чудо - http://www.europcar.ua/ полюбуйтесь.

Похоже, мы о разном говорим. Я сайтостроитель "старой закалки" и для меня дики все эти манипуляции с 301 редиректом. Если бизнес настолько страдает из-за заморочек отдельной поисковой системы, а домен сайта стал непринципиальным, то явно пора что-то править в консерватории.

mynewgaleon:
Представляю, в тематике прокат авто компания Sixt вынужденна таким заняться. Также Budget себя плохо чувствует.

ИМХО, им нужно гнать поганой метлой своих маркетологов, а не маяться такой фигней. Ставить оффлайновый бизнес в зависимость от одной поисковой системы... Сколько существует фирм о прокату авто? Почему только эти чувствуют себя плохо?

ЗЫ: Это совершенно не значит, то я доволен нововведениями Гугла. Сам от них пострадал и от текущей выдачи выпадаю в осадок, но уход от этой проблемы 301 редиректом однозначно должен был иметь соответствующие последствия. Даже если Гугл не одумается, нужно стараться понижать свою зависимость от него.

Всего: 943