minsky

minsky
Рейтинг
226
Регистрация
01.09.2012
Dimas #:
Ну, до того момента пока в PowerShell не начать вводить командную строку google-indexing-api-bulk-master еще понятно. А как только нужно вписывать Root тут и начинаются проблемы. Не принимает он рут. Кто бы просветил не программера, как довести это дело до ума. А то в интернете инфы мало.

google-indexing-api-bulk-master  - это не командная строка, а папка, в которой скрипт находится (скрипт может быть в любом месте). Опишу немного.

Сначала скачай https://nodejs.org/en/download/  и установи

Закинь папку со скриптом на D: 

Потом запускай powershell

Прописывай cd d: , затем cd google-indexing-api-bulk-master

Затем все 3 по очереди

npm install requests

npm audit fix

npm audit fix --force

Ну и в конце node index.js

Dimas #:
Где то на годик теткина статья устарела. Клауд платформа еще на русском. Вчера зашел проект замутить - Оёйки! Говорила мама учи английский сынок, человеком станешь. 😀
Да, на английском, сегодня сам замутил, но там все понятно, пару манипуляций только сделать
cheatme :
регистрируюсь на всех площадках где он так же размещал свои ссылки и ставлю свои.

А кто тебе сказал, что сможешь зарегистрироваться и проставить ссылки? Но сама по себе стратегия рабочая + своих ссылок еще.

Delahoya #:
не нужно человека в заблуждение вводить. вместо поиска доноров будет заморачиваться как налепить больше ссылок с одного донора. и "уникальной" она уже не будет, вес будет распределяться.

Какой к черту вес, анкор и есть анкор и никуда вес не будет распределятся. Конечно же лучше больше новых доноров любом случае

datot #:
Очередная самописная бездумная охинея накрутки. Два месяца крутим - 8 месяцев в жопе

2 года уже кручу (осмысленно, не агрессивно) - 0 дней в жопе

Я загоня
Ogonkov #:

Я вот прочитал схожие темы, но конкретного ответа пока не выявил.

Потому и обращаюсь с проблемным вопросом.

Я загоняю тысячными бэками в комментариях блогов, страницы которых находятся в индексе гугла.
Уже много тем расплодили на форуме по этому вопросу, уже лень писать, смотри другие топики. Положительный есть.
Bjoerndalen :

  1. Нагнать на каждую ссылку кучу говноссылок через какой-нибудь кворк?
  2. Ходят мифы что заход определенного количества пользователей через браузер Chrome на определённую страницу дает гуглу понять что ее нужно индексировать. Легенда или правда? Может через биржу заданий попросить походить по этим страницам?
  3. Ссылки на эти страницы в соцсетях по добавлять?
В общем какие варианты? Есть опыт у кого?

1 - нагнать тысячу ссылок, но страницы доноры уже должны быть индексе гугла (но тоже не 100%, что все быстро влетят в индекс). Этот вариант еще пока что работает, но очень сильно зависит от самих сайтов доноров, где располагаются статьи.

2 - попробуй сам

3 - да, но тоже очень много доноров нужно, а еще плюс 2 вариант к этому добавить, что бы переходили по ссылкам в соц сетях.

bicdibus :
Для гугла важнее чтоб количество ссылаемых доменов было большое или ссылок в целом. Понятно что чем больше доменов ссылаются тем лутше, но с некоторых доменовможно получать много ссылок, есть ли в этом смисл в даный момент, раньше норм работало количество ссылок в целом.
И доменов и, конечно же ссылок, но с разными анкорами и продвигаемыми страницами (тогда хоть тысячу с одного домена ставь, каждая будет считаться "уникальной" и приносить пользу)
Delahoya #:

нет

Не слушай тупой ответ, конечно же будет. Так же как и с буржуя на ру!!!

Всего: 2167