Нужно просто поставить пару ссылок прямо на этот bitly.com и проиндексировать страницы с ними. Гугл сейчас плохо выбирает canonical у редиректов, на которые ссылаются со страниц. Видимо, новых индусов наняли. Из 1000 штук 301-х редиректов он 100 выберет каноникалом того, кто редиректит. Кстати, тоже самое можно делать со страницами чужих сайтов тоже. Но, лучше уже на своих доменах :D Редиректы встают вместо чужих сайтов на их места в выдаче по низкочастотке. А потом выпадают в течение месяца, пока гугл правильно определит canonical :)
Друзья, вам не стыдно платить за то, чтобы googlebot просто пришел на все ваши ссылки? :) Индексация зависит во многом от самих страниц и внешних ссылок.
Если у вас нифига нету: ни сетки доров, ни прогона по форумам, ни рук, чтобы blogspot завести, то попробуйте вот такой метод:
1. Берете какой-то новый домен/поддомен/фрином, добавляете его в Google Search Console.
2. Создаете файлик links.txt с вашими ссылками, которые надо проиндексировать.
3. Создаете скрипт редиректа, который по запросу https://domain.com/123/ берет 123-ю ссылку из файла links.txt и редиректит на нее 301 редиректом.
4. Создаете файл sitemap.txt. И тупо в столбик делаете карту всех ссылок в виде:
https://domain.com/1/
https://domain.com/2/
https://domain.com/123/
4. Заливате все это на хостинг.
5. Добавляете sitemap.txt на индексацию.
Все, готово. Не надо, даже, никакого контента на этом домене, нифига. Если все нормально с доменом, вашим ip - то индексация уже началась. Гугл новые сайты в первые дни жадно индексирует. Ну, около 1000 страниц в сутки точно он пройдет. Даже, если у вас дор просит бана.
Большие sitemap.txt > 1000 ссылок делать не рекомендую. Без внешних ссылок индексация затухает через пару дней. Возьмите новый домен.
Если все очень плохо, то завтра напишу скрипт.
Будьте осторожны, друзья. Меня уже штрафовали модераторы за то, что возмутился по-поводу этих "начинающих SEOшников" с датой регистрации неделю назад. Которые просто разместили свой сайт и спрашивают почему не растет :D На серче так принято сейчаc. Если и сейчас накажут - тоже вернусь через 8 месяцев :)
xxdevil, Просто признай, что не разбираешься в вопросе и все :D
В адресной строке в конце дописать &gl=us :)
А чтобы точнее, то вместе с языком:
&gl=us&hl=en
&gl=de&hl=de
&gl=ca&hl=fr
Ну, и нужно это в региональном гугле делать. Для USA - .com, FR - .fr
Если браузер перебрасывает вас с нужного регионального домена гугла на вашу страну, то нужно набрать адрес google.com/ncr . После этого перестанет перебрасывать и можно будет вызывать региональный домен, типа google.fr. Можно еще добавлять GPS координаты в параметры, но, это сложнее.
JProger, Все, что выше сайта, который крутит белый SEO-шник это дорвей и поломка алгоритмов :D
xxdevil, Они тоже с тебя могли немножко всхихикнуть и были бы правы 🤣 Так как Disallow в robots.txt ничего не гарантирует. А если страница проиндексировалась до запрета или есть в sitemap.xml, то вообще пофигу - она годами будет выпадать.
Вот, даже, на этом сайте прописано в robots.txt Disallow: /tags , но, по запросу
site:searchengines.guru/tags в индексе 250 страниц.
А у меня ничего не вылетает годами, если низкочастотка. Делай на дропах. Если на новореге, то не вставляй много вкраплений ключевых слов - максимум в H1 + 2 раза в тексте. И в Title в первое время не вставляй ключевики. А когда проиндексируется все, тогда через пару месяцев вставь в title ключевики, и в тексте еще немного добавь. Плюс, есть еще один нюанс - не надо использовать на своем сайте вообще ни одного js кода, <script> тегов, чтобы вообще не было, и внешних css файлов не подключалось. Так сайт не уходит на дополнительный рендер и анализ ;) Ну, и чтобы сайт был быстрый и под мобильную версию 100% в тестах показывал.
Вот новорег, язык не английский:
forexjoker, Я год назад заходил на форум - ты ныл, что у тебя все упало и пропало, сейчас зашел - опять ноешь и оскорбляешь людей, которые здраво рассуждают 🤣 Может, ты просто не умеешь делать и не понимаешь, как работает google? Понапридумывали тута всяких фильтров и алгоритмов. Что и в гугле иногда сами удивляются: "неужели мы и вправду такое сделали?".
Спорим, что для google вот такой текст является уникальным и он его не забанит, не зафильтрует, а будет жадно индексировать как новый. А твою портянку масло-масляную рерайченую с кучей ключевых слов - зафильтрует? :D
Тут нет смысла искать причины - за наличие bmw в имени домена прилетит абуза и отнимут домен в любой момент 🤣