- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
У Вас нет преимущества в управляемом быстроботом Гугла
да ладно, а как же количество ? если я поставлю лям ссылок на сайт на 100 000 страниц , по 10 на 1 , то завтра все в индексе будет. А вашим способом - мне надо создать 1000 записей и индексить их до третьего пришествия.
так что преимущество есть всегда.
Я их удаляю после индекса, так как 100 ссылок на себя любимого с одной страницы как не крути спам. В консоле остается небольшой процент с блоггера.
До третьего пришествия ждать как раз и не нужно))) Для чистоты эксперимента возьмите новорег на 100 000 страниц и зенкой все по блогеру на сутки!!!!
Я их удаляю после индекса, так как 100 ссылок на себя любимого с одной страницы как не крути спам. В консоле остается небольшой процент с блоггера.
До третьего пришествия ждать как раз и не нужно))) Для чистоты эксперимента возьмите новорег на 100 000 страниц и зенкой все по блогеру на сутки!!!!
Что такое зенка? Может я тот, кто попробует такой дикий эксперимент и поделится результатами
Я их удаляю после индекса, так как 100 ссылок на себя любимого с одной страницы как не крути спам. В консоле остается небольшой процент с блоггера.
До третьего пришествия ждать как раз и не нужно))) Для чистоты эксперимента возьмите новорег на 100 000 страниц и зенкой все по блогеру на сутки!!!!
Если бы все так просто было)) рекапча сьест зенку а если не она то консоль просто отрубится нафиг и будет ошибки сыпать
---------- Добавлено 31.05.2020 в 19:06 ----------
Что такое зенка? Может я тот, кто попробует такой дикий эксперимент и поделится результатами
Зеннопостер
Да, думаю, оптимальным остается поиграться с количеством исходящих с поста.
Суть ТСу думаю ясна, а дальше смотрите как ее использовать в своих целях. Метод бесплатный и рабочий, эффективность на высоте, ни один прогон вам не обеспечит такую результативность индексации. Применяйте, делитесь опытом
П.С. Можете попробовать сначала кинуть 500 ссылок, пройдет, пробуйте 1000
Я хз, чё вы паритесь честн слово.
Рассказываю рабочий метод загона для ЛЮБОГО поисковика (Я / G / B / R и т.д.)
1. Создаете новостник-парсер (домен не нулевой а дроп берете по тематике).
2. Через пару недель, закупаете ссылочную, например здесь (тариф либо "за пределом", либо "новая сфера"). Ссылочная нормально работает.
3. Ещё через пару недель у вас в органике Я / G будет в районе 2-3к статей, так как парсер настраиваете чтобы в сутки минимум 20-50 статей башлял.
4. Ещё через пару недель быстроботы будут ЖИТЬ на вашем новостнике-парсере.
5. Этот сайт ВАШ - в обойме!
6. В подвале разместите баннер 88x31 (в подвале) на ваш сайт который нужно быстро проиндексировать. Боты за пол часа съедают все страницы, через 1 АПП в органике +1к или +9к страниц (проверено).
7. Если нужно несколько сайтов в выдачу протащить, размещаете несколько баннеров 88x31 в подвале.
8. ВСЁ!
magna1983, К этому моменту все страницы уже в индексе. Какой алгоритм дальше использовать для безопасности?
1. Удалить ссылки в посте?
2. Создать новый пост с новым текстом и новыми ссылками?
3. Отправить на индексацию новый пост. Верно?
Если ссылки уже проиндексированы, да, удаляйте их из поста, текстовку оставляйте. Далее, по цикличному алгоритму 1-3. Вы все верно поняли.
На одном акке можно держать несколько блогов для таких задач.
Cuys, интересный метод!
Хочу попробовать и ваш способ. Я такой парсер могу написать за 1 день.
Если несколько моментов, которые мне не понятны. Заранее благодарю за пояснения.
Новостник-парсер? – Вы имеет ввиду нужно создать сайт, где в день будет добавляться не менее 50 статей. Все эти статьи будут браться автоматически, например, с каких то других сайтов. В таком случае у меня вопрос:
А как же быть с уникальностью текстов? Разве гугл будет добавлять не уникальные страницы в индекс?
Если гугл на протяжении 4-х недель сканирует сайт и понимает, что там появляется, хоть и регулярно, но совершенно не уникальные тексты, то будет ли бот гугла заходить на такой сайт часто?
Вот это не совсем понятно:
Вы хотите сказать, что через img ссылку в подвале, с такого часто индексируемого сайта, бот будет переходить на главную страницу целевого сайта и каким то образом индексировать новые страницы этого сайта? Или нужно постоянно менять ссылкул в подвале?
Что такое АПП?
Метод интересный и вполне реализуемый но не совсем все понятно.
Заранее спасибо за пояснения.
---------- Добавлено 31.05.2020 в 19:26 ----------
magna1983, благодарю!
---------- Добавлено 31.05.2020 в 19:40 ----------
Cuys и еще такой вопрос по поводу дропа.
Из опыта знаю, что если домен был просрочен по оплате и был возвращен регистратору, то при следующей его покупке счетчик возраста домена будет считаться от дня его покупки новым владельцем. Таким образом по whois его возраст может быть 1 день.
Для Гугла это считается новый домен или старый?
еще ссылки можно лить в яндекс.коллекции или на пинтерест. последнее для гугла более актуально