- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
alut, от количества ссылок вес страницы не меняется. Тут просто все так запутанно излагают, что... :)
cybermaxim, имел ввиду алгоритм PageRank - о нем написано достаточно. Даже патенты опубликованы.
А пример простой - если я Вам сказал доброе слово - у Вас настроение повысилось, но у меня-то не ухудшилось :)
cybermaxim, http://www.promo-techart.ru/analysis/relevants.htm
Вундеркинд тоже пусть почитает :)
alut, и еще у меня один вопрос, к знатокам алгоритма гугля....;) если алгоритм рассчета не учитывает реальную вероятность, а использует некую рассчетную, тоди якого биса, разработчики ваще выдумывали эту "теоретическую вероятность посещения страниц условным пользователем"? Нафига тогда ее брать за ОСНОВУ пр? В алгоритм можно заложить ЦИФРЫ (например 0,15/0,85) и некий ПОРЯДОК РАССЧЕТА (например, влияние удельного вес тематических/не тематических ссылок на величину конечного индеса и т.п.), но не менять СУТЬ и ФИЛОСОФИЮ самого алгоритма. Смысл тогда брать за основу некую среднепотолочную величину, если оно ничего не показывает. По Вашим словам, косвенно конечно, выходит что на Гугле сидят сплошь кульки дырявые, которые выводят основной индекс Интернета, по имбицильному, полудыбильному алгоритму-калеке. У мну это ассоциируется со слепым на все глаза инвалидом с переломаными конечностями ...;) который выиграл национальный конкурс рисунка, потому шо был единственным участником, а его семья учредителями конкурса...;) Мне не очень верица, что такая уважаемая контора как Гугль, будет рожать на свет дитя-инвалида, с вывернутыми набекрень мозгами....;) Мне это говорит ЖИТЕЙСКАЯ логика. Я не великий аптимизатор. У меня возникли вопросы- я спросил у вундеркинда, а он подтвердил мою правоту. Я токо учюсь. Я не защищаю свою точку зрения. Я просто ищу ответы на возникшие у меня вопросы... ВНИМАНИЕ МОЯ ГИПОТЕЗА!!! По логике выходит, что ПР утекает со ссылками. и чем больше ссылок, тем больший отток ПР со страницы. Другое дело, что скорее всего утекает он весьма незначительно. В выдаче значений индекса нигде не указывается точная цифра, а лишь ее условное обозначение от 0 до 10, что не позволяет реально отслеживать истинное положение дел. А поскольку разбег между условными еденицами индекса большой, а увеличение обычно идет быстрее чем уменьшение (опять же за счет все тех же законов математики - ибо количество ссылок с твоего сайта-делится на весь интернет, а количество ссылок на твой сайт плюсуется только тебе) , то все и думают что ПР, это величина, способная уменьшаться из-за уменьшения количества внешних ссылок на сайт, но не за счет ссылок с сайта. Конечно, Гугль мог пожертвовать этой величиной уменьшения, ибо она действительно не значительна, приняв ее за 0, но если так, то летит к черту весь алгоритм. В общем, как я узнал, сейчас считается аксиомой, что сколько ссылок в страницу ни ткни, размер пр не уменьшится. Если мне кто ответит грамотно, и, внятно докажет эту аксиому или ссылку мудрую даст способную убедить ЛОГИЧЕСКИ, буду очень признателен и буду пожизненно делать скидку на отдых в Крыму, Одессе, а скоро и по всей Украине. Скидка 5-10%. Тяжело двигаться дальше не вникнув в основы...;(((( Я понимаю, конечно что это больше вопрос чистой теории, и на практике гораздо важнее другое, но...
Вундеркинд свитал реальную вероятность, а в алгоритме Гугля забита рассчитанная. И она не изменяется с приходом или уходом посетителя.
cybermaxim,
наверное, чтобы точно все подсчитать нужны мощности компьютеров Гугля, а не вундеркинда :). Сложность в том, что в алгоритм заложено N (а чему оно равно знает только Гугль) иттераций по M ( число с десятком нулей) страниц. Поэтому все говорят из опыта и здравого смысла. В ДМОЗе - 3 000 000 ссылок - куда бы делся его PR ?
P.S. а насчет того, что это основной фактор - ошибаетесь. Прочитайте таки статьи Сергея Людкевича.
http://www.promo-techart.ru/analysis/range.htm
http://www.promo-techart.ru/analysis/relevants.htm
одну из них Вам уже два раза предлагали.
alut, В ДМОЗе - 3 000 000 ссылок - куда бы делся его PR ?
а сколько ссылок на дмоз...;) ? и каких жирных....;)
6666,
cybermaxim, http://www.promo-techart.ru/analysis/relevants.htm
Вундеркинд тоже пусть почитает
Я смотрю единственный козырь (из реальных примеров), который приводят сторонники того что ПР утекать не может, это ДМОЗ. Уже много раз видел, когда приводили этот пример. Вот если бы у ДМОЗ был ПР 4 или 5, было бы интересно посмотреть, что было бы. Имхо, но ПР от 6 и выше, это совсем другая песня нежели от 1 до 6.
Ну что вы сами себя мучаете, какие-то пиары, итерации...
Вместо того, чтобы так, по-настоящему - это нет... :)
Ну что вы сами себя мучаете, какие-то пиары, итерации...
Вместо того, чтобы так, по-настоящему - это нет... :)
А как это по-настоящему, позвольте осведомиться? 🚬