- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В одной из тем про Гугл наткнулся на ссылку
http://www.webplanet.ru/news/internet/2005/11/29/usaby.html
Цитата из статьи:
"По крайней мере, в самом ближайшем времени поведение пользователей на сайте будет учитываться, анализироваться и непосредственным образом влиять на позиции сайта среди результатов поиска, предупреждает Джим Хеджер на страницах Search Engine Journal."
В этой же статье:
"Скоро при расчете PageRank будут учитываться время просмотра страницы пользователем" - время будет учитываться, только для расчета релевантности страницы непосредственно, а не опосредовано PR (которого, по моему мнению, скоро не станет или будет малозначащим фактором).
oleksandrenko, может и будут, с этим никто не спорит. Весь вопрос - как.
УРА! заработали российские поисковики, написанные с маленькой буквы.
Толко похоже с кодировками проблемы... Есть заходы с гугля и яндекса по словам: "&&??&^?" и им подобным :(.
По поводу кодировок, не этот ли параметр
_uacct = "UA-65595-1";
за это отвечает?
И что он вообще означает? Кодировку? так может туда породнее что нить поставить?
Это идентификатор сайта в системе. Лучше не трогайте =)
А-а!! ну да! вспомнил! именно так. он и есть :) я ж понимал это когда код добавлял... старость однако...
Отсюда проблема с кодировками снова встала во весь рост.
Он мне показал отчет с самыми самыми заголовками - одни сплошные "&&??&"... ничче не понимаю(с).
В одной из тем про Гугл наткнулся на ссылку
http://www.webplanet.ru/news/internet/2005/11/29/usaby.html
Цитата из статьи:
"По крайней мере, в самом ближайшем времени поведение пользователей на сайте будет учитываться, анализироваться и непосредственным образом влиять на позиции сайта среди результатов поиска, предупреждает Джим Хеджер на страницах Search Engine Journal."
В этой же статье:
"Скоро при расчете PageRank будут учитываться время просмотра страницы пользователем" - время будет учитываться, только для расчета релевантности страницы непосредственно, а не опосредовано PR (которого, по моему мнению, скоро не станет или будет малозначащим фактором).
+ чтобы собирать статсы - нужно ихний код влепить - а кто не влепит - тот не ранжируется? И ПРЯМО ВСЕ ПОБЕЖАЛИ.
+ ущемление американосовских прав. Lor?
Все это бредни для поднятия акций.
По крайней мере на ближайшие несколько лет. И не надо ломать голову, психовать и оверквотить
бред... ну поставлю я дома 100 компов п1 пущю через прокси чейн на сайты и пусть сидят...
Давайте без резких осуждений, pls.
"Пользователя" с не адекватным поведением вычислить возможно (по моему мнению, не факт, конечно). Если вы хотите сделать качественного бота (качественного в том смысле, что если отслеживать его поведение, то оно покажется подобным человеческому), то вам прийдется очень постараться, чтобы смоделировать поведение подобное человеческому: для этого вам прийдется собрать данные о поведении многих пользователей, завести им почту, контакты и т.д.
Если какой-то ресурс будет иметь посещаемость отличающуюся от аналогов, то в русле борьбы со спамом и накрутками можно особо внимательно последить за пользователями.
Далее. Можно учитывать посещаемость только "провереных" (постоянных или что-то в этом роде) пользователей (как в одной из последних статей писалось, что сейчас большее значение придается старым ссылкам с авторитетных сайтов).
Вобщим уже два варианта решения на вскидку (ведь для борьбы с линко обменом для накрутки PR что-то придумали).
то вам прийдется очень постараться, чтобы смоделировать поведение подобное человеческому: для этого вам прийдется собрать данные о поведении многих пользователей, завести им почту, контакты и т.д.
значит google будет за private_life шпионить? дела... в суд тутже. и иски на миллионы.
И значит я правильно понял, что для каждого сайта будет НИВЪ*Б*НАЯ (больше чем большая, по-русски другого слова не нашел
) база и она будет рефрешиться еже_часно/суточно? ... Да не сможет обработать столько. Нельзя управлять интернетом.
"то в русле борьбы со спамом и накрутками можно особо внимательно последить за пользователями."
все таки спам это не самоцель поисковиков, скорее это для них мелочь - борьба идет именно за качественную выдачу .. а спам или просто хреновый сайт попадет в топ - это разница небольшая.
значит google будет за private_life шпионить? дела... в суд тутже. и иски на миллионы.
брось ..не будь наивным :)
какой нахрен суд и иски когда цель следить за всем и вся поставлена в интересах безопасности государства