- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня в рассылке WebProNews проскочила такая вот заметка.
Невнятные предположения по поводу взаимоотношений гугля и джава-скриптов уже несколько месяцев бродят, как призрак по Европе, по всяким-разным оптимизаторским форумам. Здесь они по крайней мере внятно сформулированы.
Есть какие-то мысли по поводу этого предположения? Мои наблюдения ни в малейшей степени не противоречат нижесказанному.
Или есть другие точки зрения?
С уважением,
Виктор
------------
If you've been using JavaScripts on outbound links from your webpages in an effort to preserve your PageRank you should consider changing your practices - for two reasons.
Discuss PageRank hoarding in WebProWorld. (There's already a lively debate going - very valuable to the PageRank hoarding discussion.)
For one, "Google engineers have stated in a few places lately that they are extending Googlebot's ability to read and understand JavaScript. Especially links in JavaScript, "said Black_Knight in the Cre8SiteForums.
These sorts of techniques used in conserving PageRank are potential red flags to Google engineers out there hunting down sites that use "aggressive" seo tactics to boost their rankings.
If you're using this tactic on your site you're liable to be penalized, though DigitalPoint, in discussion with Black_Knight, suggested, for the sake of the argument, not for practice, that to avoid detection one can simply put the JavaScript in an unspiderable external file.
The other reason you should consider linking out is that Google also penalizes "dead end" sites or "PageRank Sinks," as Dan Thies calls them in a post on the i help you forums.
In light of an early paper on the PageRank concept Thies states, "it is very reasonable to suggest that Google doesn't like a site that doesn't link out at all."
In the same thread Dan discredited the idea that linking to authority sites with high PageRank, such as Google, could return sites to the index and boost ranking.
Note: I posted this article in the forums on Friday, where some of our veteran members criticized a "factual" presentation of what is essentially opinion. I reviewed the article and changed the wording in the first paragraph, so that you remember that all speculation about Google's algorithm is just that - speculation... even when based on documented observations - we just don't have all the information.
The idea for this article came from a post in the SEORoundTable - thanks Barry.
Только что сам прочитал рассылку и потом наткнулся на этот пост.
vmegap, не могли бы Вы описать какие именно наблюдения "не противоречат"? Это может быть ключем ко многим вопросам, возникшим в последнее время.