- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Ну вот как раз потому что они ветвятся - на Adobe.com заканчиваются не все ветки ссылок инета ))
Не буду ничего утверждать, неотслеживал расход ссылок с рождением интернета. Вот только точно уверен, что между google и многими другими зарубежными компаниями, да и вообще сайтами с хорошим контентом и рунетовскими сайтами есть большой ссылочный провал. Смотрите бэки, там такого нет.
ух, пропустил разгар беседы :)
svift, ваши утверждения по поводу того, что домен сам себе не может накачать никакого ПР и что ПР страницы, на которую никто не ссылается = 0 в корне не верные
вы даже по началу хабыли как-то про addurl и говорили что и индексация без ссылок не возможна... но этот момент вроде уже уяснили
итак, любая проиндексированная страница имеет ПР, больший от 0 т.к. ссылающийся 0 дал бы только 0 и ПР не было бы вообще, а т.к. внутренние ссылки (например, на морду) передают ПР так же, как и на внешние сайты (надеюсь, с этим вы спорить не будите), то выходит что страницам достаточно находиться в индексе и без внешних ссылок они смогут обеспечить небольшой ПР
что касается прокачки большого ПР таким местодом, на это надо не 1 и не 10 млн. страниц в индексе т.к., думаю никто возражать не будет, просто что-то никто не упоминал, что сквозные ссылки передают меньший удельный ПР, чем одна, например, морда или любая внутренняя - т.е. если есть ссылки со стр. №1...№100000, то ссылка со стр. №х будет передавать меньший ПР, чем ссылка с этой же страницы №х, но при условии, что с других страниц ссылок на ту же страницу не идет или их идеть меньше, грубо говоря, там в формуле рассчета ПР где-то присутствует деление, в котором одно из значений - количество ссылок с домена... иначе был бы бардак - у меня, например, есть сайт на котором около 200 внутренний страниц с ПР4, но ведь их сумма ссылок не даст такого же результата, как 200 ссылок с аналогичных внутренних страниц но с разных доменов? - напоминаю, это был ответ по поводу прокачки высоких значение ПР обсуждаемым методом
и на закуску :)
Я ща скажу может быть глупую вещь... но PR на мой взгляд просто назначен одному или нескольким ресурсам... а вот они "раздают" его остальным... повторюсь, это моё мнение, вероятно оно ошибочно, но ощущение именно такое... например тот же Google... у него когда-нибудь было меньше PR10 ? на него наверно сразу весь инет сослася, я просто сравнительно недавно (в масштабах вселенной) узнал о существовании PR. Кто-нить помнит было ли у google.com когда-нибудь меньше PR 10 ?
вполне вероятно именно то, что ПР назначен искусственным методом некоторым ресурсам, но то, что это было яйцо, из которого появился ПР - это не так, как уже говорилось, любая проиндексированная страница имеет ПР>0, вот от всюда все и пошло, рука руку моет
А вот именно это на мой взгляд и происходит... тобишь, если раньше для "шестерки" хватало одного, то теперь того же самого не хватает и для пятерки... хотя это всего лишь МОЁ ВИДЕНИЕ ситуации, я не претендую на истинность...
единственное с чем не соглашусь - это с тем, что в замкнутом контуре можно получить отображаемый в гуглбаре PR отличный от нуля...
вы немного не верно интерпретируете понятие ПР
ПР это _относительный_ рейтин, а _не_ _абсолютный_
пример абсолютного - тИЦ, он ничем не ограничен, грубо говоря это просто количество ссылок (т.е. какой смысл лежит в основе, сейчас, конечно же, все изменилось в корне :) спору нет...)
ПР это же относительный рейтинг т.е. грубо говоря это отношение рейтинга сайта1 к рейтингу сайта2, поэтому в связи с постоянным ростом количества сайтов, постоянно растет и количество ссылок, что вызывает рост планок по значениям ПР
все вышесказанное в полной мере является моим ИМХО
я не собираюсь ни с кем спорить ни по чему из вышесказанного, я просто высказал свое мнение относительно вопроса, надеюсь, оно хоть кому-то будет полезным и хоть кто-то его дочитает :)
а вот что касается конструктивных обсуждений и совместных уточнений - всегда рад
ЗЫ: сорри за очепятки, спишу...
как уже говорилось, любая проиндексированная страница имеет ПР>0, вот от всюда все и пошло, рука руку моет
А кто-нибудь знает откуда это пошло?
И были какие-нибудь тесты или расчеты?
<BOBER-3>
Да в том и прикол, что будь у вас и 200 сайтов разных, на разных доменах, но не получивших ссылку из "большой сети" ссылки с них также ничего не дадут в плане хоть сколько значимого прироста, в этом и заключается весь фокус. Это во-первых.
Во-вторых, ребята, вы тут многие путаете о чем речь, а речь идет, как я уже неоднократно упоминал, о визуально-ощутимом ранге отображаемом в гугльбаре, тобишь о величинах от 1/10 до 10/10, всё остальное не стоит и выеденного яйца, чтобы об этом спорить...
Где "не было бы ПР вообще" ?
Самое важное - ЧТО ВЫ ИМЕЕТЕ В ВИДУ ПОД ТЕРМИНОМ НЕБОЛЬШОЙ ПР?
Я думаю это 0/10 на шкале... не так? а если так, то нах... простите он нужен ранг стремяшийся к нулю??? когда с позиции оптимизатора говорить о ранге меньше PR 4/10 вообще смешно...
значит из этого можно сделать такой вывод:
что пусть у вас сайт хоть из 10 миллионов страниц состоит, но сквозная ссылка с этих десяти миллионов страниц даст не больше чем одна ссылка с одной из этой туевой хучи страниц... - вы это имеете в виду?
Если это, то я и говорю - если PR одной из этих страниц стремится к нулю - к самому минимальному рангу стремится, то есть его гугльбарный ранг не превышает 0/10 - то максимум что вы соберете этими миллионами страниц - это 0/10 :)
В том и смысл - что Гугл принял себя за 100% за 10/10 по умолчанию, а не за то, что на него сослалось какое-то количество страниц - это понятно? а вот потом используя "ручное назначение ранга", в том числе и с помощью DMOZ/Гугл - он "пустил" PR в сеть... и если вернуться к истокам, то как мне помнится в индексе нельзя было оказаться не имея на себя ни одной ссылки, не было никаких сайт-мапс... возможно и был addurl - но я сильно сомневаюсь, что с его помощью можно было добавить (не подать на индексацию, а именно целиком скормить) в индекс даже средний по объему страниц сайт...
Уж если смотреть на природу ранга как на вероятность, то рост планок определен не количеством ссылок, а ростом количества страниц в "сети"...
-=Илья=-
здесь есть ошибка в слове получаЮТ, вероятнее всего, что они получиЛИ его один раз при первом расчете ранга, а потом в каком-либо дополнительном назначении необходимость отпала, так как "сеть" сама поставила все связи
Как-то уж слишком мрачно о ДМОЗе :) и, кстати, именно так и было на мой взгляд - DMOZ и стал инструментом "разлива"... и еще один маленький момент... в англоязычном сегменте сети нет такой жадности до ссылок и весьма неплохо чтут копирайт, а значит и ссылки ставят на исходники и первоисточники - так что затухание не такое уж и критическое, да и ДМОЗ его компенсирует с лихвой, даже весь его принцип построен как нельзя лучше - глобальные сайты имеют больше шансов получить высокий ранг нежели региональные... возможно (но не обязательно) интересные меньшему кругу пользователей сети
В общем моё мнение:
Ранг при первой итерации был просто "назначен" одному или нескольким ресурсам типа Google, Microsoft, Adobe, ... то есть очевидным "китам" его дали "просто так"... не без помощи DMOZ ранг был "выпущен в сеть" и дальнейшие расчеты уже ведутся на основе когда-то первый раз назначенных рангов... с увеличением количества страниц в индексе растут планки ступеней гугльбаровского ранга...
Хух.. блин, аж пальцы устали... :)
<BOBER-3>
Да в том и прикол, что будь у вас и 200 сайтов разных, на разных доменах, но не получивших ссылку из "большой сети" ссылки с них также ничего не дадут в плане хоть сколько значимого прироста, в этом и заключается весь фокус. Это во-первых.
Т.е. Вы хотите сказать, что если я создаю 200 сайтов, перелинковываю их, все замыкаю на один ведущий сайт, но внешних ссылок на это кольцо не ставлю, то я не получу на этом основном сайте нормальный PR???!!!
Т.е. Вы хотите сказать, что если я создаю 200 сайтов, перелинковываю их, все замыкаю на один ведущий сайт, но внешних ссылок на это кольцо не ставлю, то я не получу на этом основном сайте нормальный PR???!!!
Зависит от кол-ва страниц тех сайтов, если там нормально страничек, которые Г съел, то они получат немного ПР, там от страниц кол-ва зависит и насколько хорошо проиндексил его Гугль. Если вся эта масса будет ссылаться на 1 сайт, то можно неплохо получить. Тут важно кол-во страниц, как переликованы и проиндексированы. Пример некоректный.
Не буду ничего утверждать, неотслеживал расход ссылок с рождением интернета.
Так никто и не утверждает. Обсуждаются личное мнение svift-а)
Вот только точно уверен, что между google и многими другими зарубежными компаниями, да и вообще сайтами с хорошим контентом и рунетовскими сайтами есть большой ссылочный провал.
Очень похоже, что так. И?
Смотрите бэки, там такого нет.
Чего нет?
Зависит от кол-ва страниц тех сайтов, если там нормально страничек, которые Г съел, то они получат немного ПР, там от страниц кол-ва зависит и насколько хорошо проиндексил его Гугль. Если вся эта масса будет ссылаться на 1 сайт, то можно неплохо получить. Тут важно кол-во страниц, как переликованы и проиндексированы. Пример некоректный.
Ну вот как раз по теории svift-а получается, что в оном примере ПР-а на тулбаре не будет, т.к. в свою очередь те 200 сайтов не имели вливания ПР извне.
Ага, только по твоей же теории на следующем пересчёте весь интернет превращается в замкнутую систему и все сайты получают PR 0.
Ага, только по твоей же теории на следующем пересчёте весь интернет превращается в замкнутую систему и все сайты получают PR 0.
Ранг при первой итерации был просто "назначен" одному или нескольким ресурсам типа Google, Microsoft, Adobe, ... то есть очевидным "китам" его дали "просто так"... не без помощи DMOZ ранг был "выпущен в сеть" и дальнейшие расчеты уже ведутся на основе когда-то первый раз назначенных рангов... с увеличением количества страниц в индексе растут планки ступеней гугльбаровского ранга...
При каждом пересчете необходимо отталкиваться от 1-5 сайтов с фиксированным PR. То есть не первый раз, а каждый.
При каждом пересчете необходимо отталкиваться от 1-5 сайтов с фиксированным PR
А может считать, что суммарный PR всей Вселенной равен константе, например единице? ;)
Тогда не надо ломать голову, к чему привязываться.
(Читать все сначала не осилил).