BangaManga

Рейтинг
57
Регистрация
08.03.2013
Должность
Java Developer
Интересы
Разработчик со стажем.
Яндексоид в прошлом
seo4fan:
да я пока не особо переживаю. если АПы пингвина будут как и прежде раз в полгода, это нормально.
сейчас за 3 месяца можно вывести новый сайт на хорошие позиции прямыми анкорами и успеть получить профит.

Странная логика делать сайт каждые 3 месяца. Что делать тем ,кто работает на рынке много лет ? Типо долбить стены против google ?

Даёшь каждому вебмастеру по баночке фасоли со вкусом инженеров G+.

Это случаем не они ? http://www.youtube.com/watch?v=tJLg--csdqo

Люди ,которые впаривают, что без рекламы никак не получить трафик.

Я не знаю ,но у Гугла такое количество сотрудников , что можно делать соления.

сотрудники G+ в маринаде. сотрудники отдела качества поиска с баклажанами. инженеры с таком и солью. заливные инженеры сервиса почты.

flaction:
По моим наблюдениям, ни количество подписчиков, ни внешние ссылки никак не влияют на высокое ранжирование группы в поисковой выдаче.

Вот это сообщение просто убило, а что тогда влияет ? Прах Путина ? Энергия солнца ? Мантия Амаяка Акопяна ? Благославление Мэттушки Катса ? Волосы Бритни Спирс ?

Proofer:
По фильму в будущем были летающие машины, супер-омоложение, гравитационные скейты..
Где всё это?

В параллельной вселенной :)

Тему кажись нужно закрывать ибо топикстартеру и так ответили и сяк, да и похоже ему вообще было пофиг ))))))))

Proofer:
А я и не говорил про 200-300. Просто раньше была мода, да и сейчас сохраняется, делать внизу страницы длинный такой текст из 3к символов и пихать его именно вниз страницы, где до него не доберутся.


Я думаю, что к 2020-2030 годам думать уже буду не я, а машина и там без разницы будет размер текста. Там будут оценивать конкретную пользу текста. Где-то текст не нужен будет совсем, а где-то нужны будут огромные статьи и т.п.
Не забываем, что гугл над ИИ трудится)


Скорее всего уровняется. Будут читать хорошо и короткие тексты и длинные.

Ох :) Ну не знаю будет ли думать машина без человека. Были прогнозы, что уже к 2010 году компьютеры смогут думать за людей, но эволюция не так проходит.

Мода лишь мода. Сезон за сезоном ,что-то меняется и что-то уходит. Особенно в дизайне это видно.

Про уровняется. Мммм думаю ,что нет, но за сменой парадигмы нужно наблюдать и скоро будет новый виток.

p.s. не посчитать за рекламу сервиса. В сша сейчас набирает обороты cowbird.com ,где пользователь расказывает истории голосом ( в будущем их сервис будет распознавать речь из рассказа и выливать в текст). Кто знает, можно это будет следущем стандартом ? .

как пример.

http://cowbird.com/story/12402/_Later/?q=moscow

Proofer:
Спамом это не будет считаться. Я говорю про такие тексты http://www.holodilnik.ru/refrigerator/russia/
Перед каталогом идёт небольшой текст.

Прочитал 1338 символов на этой странице, но не 200-300.

Встречный вопрос ,как бы Вы оценивали такой текст скажем в 2020 году ,если такое содержание находится на скажем 5000-8000 сайтах. Что делать, если все разновидности текстового содержания уже написаны и так и сяк в формате от (200 до 750 символов).

Вот ,поэтому я думаю, что к 2020-2030 году текстовое содержание будет форматно около минимум 1000 до 3500 с разбивкой слайдом типо 1-2-3-4-5 + NewAjax поиск на основе голосовых функции либо подсказки где находится нужная информация аля Google Now с учитыванием историй сёрфа и других факторов.

Proofer:

Это будет прогрессировать. По себе замечаю, что лень становится читать огромные статьи.

Сейчас пик ,но будет и падение, а потом смена парадигмы. Прочитайте историю компьютерной эволюции. Бывало так, что всё прыгало туда сюда.

Proofer:
Ну проверить передачу стат. веса я никак не могу. Поэтому смотрю на заспамленность, PR и прочие параметры. Только в этом случае повышается вероятность взять хорошую ссылку, но никак не возможность узнать передаётся вес или нет)

---------- Добавлено 12.05.2013 в 20:53 ----------

BangaManga, так вот и получается, что чем текст полезнее, тем документ менее значимый, т.к. в полезном тексте нет воды и кол-во символов обычно меньше. Про уникальность я вообще не говорю, т.к. мы априори берём уникальный контент и написанный образованным человеком.
Если это правда так работает, то бред полный, но я первый раз такое слышу.

Не всё настолько совершенно ,а алгоритмы тем более. Ещё 3 года назад многие алгоритмы не могли определять первоисточник настолько хорошо ,как сейчас. Хотя и сейчас существует много fail-ов.

Алгоритмы в первую очередь сфокусированы на то, что вся информация, которая изложена в объеме на странице = полезна, а то как люди пытаются налить воды - это уже издержки.

Кстать, про короткопостики. Вероятно в будущем это будет считаться спамом.

Пример из жизни.

Сначала из-за того, что были маленькие экраны, то изображения были низкого качества и маленькие по размеру, но прошло достаточно количество лет и мониторы стали больше и экран лучше. Кому теперь нужны маленькие фотографии в 100x100 ? - Никому. Все сейчас используют изображения от 640 px и выше до 1920 или вообще Retina.

Скорее всего будет так же и с короткопостиками т.к. весь интернет уже будет забит (перенасыщен) всем типом и видом коротких сообщений и потребуется что-то более полезное для людей.

P.s. ещё в прошлом посте добавил про короткопосты.

Proofer:
Так, ход мыслей понял.
Где про это можно почитать?
И как гугл узнает что написано на первой странице? Я могу какой-нибудь водянистый бред расписать на всю страницу, а могу в паре предложений собрать всю нужную информацию.
Я могу написать: Горный велосипед со стальной рамой.
А могу ещё так написать: Прекраснейший горный велосипед с удивительно прочной стальной рамой, которая будет защищать ваши яйца от соприкосновения с твёрдым бетоном у вас под колёсами.
Выходит второй документ весомее, полезнее и ссылка с него передаёт больший вес?

---------- Добавлено 12.05.2013 в 20:32 ----------

Просто сейчас во всех поисковиках есть тенденция к уменьшению текста на страницах. Т.е. если раньше юзали портянки, то теперь для нормального ранжирования достаточно 1 абзаца на страницу с товаром, а иногда текст вовсе не нужен.
Сейчас ПСы требуют минимум воды и больше конкретики.

Прочитать можно в принципах работы поисковых машин и поисковых алгоритмов. Лекции Стэнфорда и MIT, книги по математическому моделированию, школа ШАД (shad.yandex.ru) думаю там это разбирается очень хорошо, документация Bing при поступлении в программу Software Engineer Intern.

Чтобы определить бред или не бред. Присходит первоначальное сканирование. Далее определение полная копия ли это или нет + качество самого контента.

К сожалению, водянистый бред ,если он написан "професионально" сложно определить алгоритмам, но автоматически сгенерированный текст и всякую хрень авторераит определяется легко.

Да так и есть текст с водой весомее (к сожалению) ,но тут есть понятие ,как пользовательский фактор. Ведь, если содержание бред, то пользователь долго не задержится.

Proofer:
Просто сейчас во всех поисковиках есть тенденция к уменьшению текста на страницах. Т.е. если раньше юзали портянки, то теперь для нормального ранжирования достаточно 1 абзаца на страницу категории, а иногда текст вовсе не нужен.
Сейчас ПСы требуют минимум воды и больше конкретики.

Не совсем так. Все форматы ,которые были так и есть. Сокращение количества символов произошло из-за скорости обновления ,но это не есть хорошо (не полезно). Есть вещи ,которые стали модными - это 140 символов , короткопостики ,но это пройдёт увидишь. Интернет всегда испытывал давление трендов, но потом изменяется к чему-то среднему.

+ Многие тематики нельзя растолковать в 2-3 предложениях.

Ответ на эту психологическую тему был озвучен на TED'12. Людям хочется получить быстрее информацию т.к. многие люди не могут держать фокус на странице долго + люди стали меньше читать на планете + люди перестали вникать и т.д. множество факторов ,но если тематика требует длинных постов и содержательных ответов ,то - этот сервис или сайт найдёт своего посетителя.

Это, как читать книгу в сокращённом варианте или от фильма отрезать кусок в 10 минут.

Proofer:
BangaManga, всё это круто, но как влияет контент на стат. вес, ты мне так и не ответил, а точнее не сказал откуда ты это подчерпнул.
То, что сейчас PageRank уже не чистый это понятно.
Но я нигде не встречал источников, где была бы указывали на прямую зависимость между контентом страницы и весом ссылки..


Причём тут килобайты? Или это какой-то отстраненный пример с килобайтами?
Я говорю про стат. вес ссылок.

При том при этом. Подумай и поймёшь.

Ты взял лист A4(1),где написано 1 предложение и подпись смотри страницу 15.

Или ты взял такой же лист A4(2), где имеется 50 предложений и подпись смотри страницу 15.

Даже в твоих глазах страница A4(2) будет весомее и информация имеет своё измерение веса, а потом уже делится на useful или unuseful /unique or not и т.д.

Всего: 626