- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Под реальным развитием я понимаю:
- реальную обновляемость сайта (новости компании, новости отрасли и т.д.)
- наличие полезного для пользователей контента по теме (аналитические статьи, советы, новости отрасли), а не статьи выложенные с целью внутренней перелинковки
- доп. сервисы
- рост (псевдо)естественной разнообразной (блоги, форумы, порталы, корп. сайты, сми) ссылочной массы, и не только через сапу
и т.д. смысл думаю понятен
Сомнительно это все. И на словах, конечно, хорошо. Но на практике все совсем по другому выглядит.
Человек может оценить примерную полезность, качественность сайта. Да и то, для кого-то он может показаться "плохим" или "неполезным". Но думаю на большой выборке можно оценивать что в целом какой-то сайт "качественный", какой-то нет.
А как это будет делать алгоритм?
Например, реальное развитие, которые вы описали. Можно на каждый пункт привести контрпример.
- если делать лучшее ранжировании сайтам, с большим числом страниц и постоянно доавляемыми новыми страницами, то это тоже начнет симулироваться вебмастерами. Да и бывают сайты коммерческие, с малым числом страниц и очень полезные. Т.е. этот фактор даже сам по себе сомнителен.
- как алгоритм будет оценивать полезность статей? Внешние ссылки ? Опять же можно самому проставить. Не будут же яндексоиды вручную рунет перечитывать и оценивать? :)
- псевдоестественность тоже можно симулировать.
Mills добавил 24.05.2010 в 21:12
так вот - мне кажется яша в погоне за усложнением алгоритмов "доусложнялся" и ранжирование подчас неадекватное, на мой взгляд. Хотя, конечно, направление правильное, что они за качество поиска борются :)
Сомнительно это все. И на словах, конечно, хорошо. Но на практике все совсем по другому выглядит.
Человек может оценить примерную полезность, качественность сайта. ...
А как это будет делать алгоритм?
Недооцениваете вы яндексоидов. Там умы сидят.
- как алгоритм будет оценивать полезность статей? Внешние ссылки ? Опять же можно самому проставить. Не будут же яндексоиды вручную рунет перечитывать и оценивать? :)
К примеру поведение людей по отношению не к статьям, а к ресурсам. Т.е. сколько людей перешли с серпа, на каике сайты, и т.д. и т.п.
Дааааа коллеги, Яндекс эволюционирует и это закономерно! В Рунете есть две проблемы Яндекс и Google, если первого затопчут (что мало вероятно) ,то технологии WEB2.0 окончательно интегрируют и уже никакая сапа не поможет. Мне если честно хочется дожить до этого момента!
Недооцениваете вы яндексоидов. Там умы сидят.
сложно представить, чтобы это все работало нормально без косяков.
Mills добавил 24.05.2010 в 23:48
К примеру поведение людей по отношению не к статьям, а к ресурсам. Т.е. сколько людей перешли с серпа, на каике сайты, и т.д. и т.п.
много факторов тут. много чего можно предложить, но, мне кажется, на данный момент желание сделать лучше привело в "как всегда".
Просто ссылки срабатывают далеко не сразу и передают не постоянный вес, после их индексации и появления в беках. Ты видишь, что у тебя в бэках допустим 1500 ссылок, а толку почти ноль.Что ты делаешь? Начинаешь возиться с контентом, смотреть конкурентов и анализировать их методы, анкор лист и прочее. Потом ты начинаешь по двадцать раз фильтровать ссылки, закупать новые... А нужно просто подождать, пока они начнут работать чуть более чем на половину своего веса.
В результате таких страданий ничего хорошего не выходит.
Временной фактор в ссылочном убивает напрочь саму идею продвижения "за три месяца" в топ. Сейчас всё слишком разнонаправлено и не однородно работает. Один кластер донора работает, другой нет, например. Да мало ли какие ещё есть критерии.
Лично я в тесных коммерческих тематиках сайты беру с договором минимум на 6 месяцев, иначе нет смысла, деньги на ветер.
И да, всё это мои не беспочвенные, но всё же измышления, я так вижу :)
В последнее время прихожу к выводу, что классические методы оптимизации для Яндекса работают все хуже и хуже. Речь пойдет в первую очередь о СК и ВК запросах, там где конкуренция ничтожна и так все понятно.
Каждой теме - свой час.
Я уже писал, что на мой взгляд дало этому толчок - появление систем "управления выдачей".
С нашей точки зрения, автоматизированные системы накрутки или продвижения не могут рассматриваться как цивилизованный этап развития рынка - на цивилизованном рынке нет игроков, которые получают прибыль не за счет создания добавленной ценности для конечных потребителей, а за счет попыток ухудшения продуктов других игроков»
Это логично и правильно. В топах должны быть качественные сайты.
Роман Поборчий (Руководитель службы оценки качества поиска) про коммерческую выдачу и качественные сайты.
PS: я не отрицаю того, что проблема может быть лично в моих методах работы. Однако, лично у меня при комплексной работе (имеется в виду реальное развитие сайта) результаты всегда лучше, чем при классическом продвижении (когда оптимизировал текст и закупил ссылок в сапе).
Я придерживался всегда мнения - делать хорошо, а не так - чтобы вставить текста+ссылок = топ.
Классическая схема в понимании '07-'08 год уже давно неактуальна.
Есть принципы, а есть - технологии, так вот - принципы остаются, технологии меняются.
На мой взгляд, "схема" - останется (это принцип), но поменяются технологии (например, сначала были "кейвордсы" и клоакинг->рега в каталогах->линкаторы->автоматические линкаторы (автоматический обмен ссылками)->сателлиты->биржи ссылок->биржи статей->вечные ссылки и т.д)
В общем, каждый последующий этап отличается от предыдущего своеобразной "качесвенностью". Не буду вдаваться в подробности, но суть я сказал. Все вышенаписанное - ИМХО.
Emili013, так и должно быть. Скоро те, кто оптимизирует по "классической" схеме загнутся окончательно.
Что есть "классическая" схема?
То, что не есть актуально или то, что делается так как я написал выше (тяп ляп текста+ссылок=топ?)
но это ведь просто разный подход...разные схемы продвижения и разные схемы закупа (ссылок, статей, вечных_с).
Ведь вот он по сути комплекс (внешний): набрали грамотных каталогов из яка зарегистрировались, написали несколько статей->продублировали и раскидали на сайты. Далее по нужде закуп ссылок в биржах и их просеивание и/или закуп вечных ссылок.
но это ведь просто разный подход...разные схемы продвижения и разные схемы закупа (ссылок, статей, вечных_с).
Это - разные технологии получения "внешней релевантности" (в зависимости от работоспособности метода) - ИМХО. В какой-то степени это можно назвать "схемой".
Я попытался дать эволюционную "цепочку" некоторых методов в разное время.
Tarry, если бы было все так просто как ты говоришь. Если просто ждать, то и 6 месяцев не хватит, сайты пляшут +-1 по пол года и никаких движений.
Классический метод он остался. я вообще не представляю какой то иной. Двигали внутр оптимизация+ссылки. Сейчас тоже самой. Раньше(совсем совсем раньше) достаточно было прогнать по 1ps и ты в топе. Потом Линкаторы появились и опять топы, Потом линкаторы перестали работать, появились биржы ссылок. Перестали работать и каталоги. Сейчас и биржы работают мягко говоря не айс. Все ведется к усложнению системы подбора доноров. С внутренней все проще, она не меняется, меняется тошнота допустимая, но её легко подобрать методом тыка даже. А вот ссылки сложнее. Тут методом тыка не подберешь, в этом вся проблема текущего времени. Сейчас вылетают пачками доноры из за АГС, это хорошо для оптимизатора, поскольку видно, что донор больше не работает, а те сайты, которые не вылетели, не факт, что работает каждый из них. Как узнать какой донор работает, а какой нет? Это основной вопрос.