- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
этим сервисом bulkaddurl.com. но только позвать Гугл бота. кажду страницу индексировать не выгодно совсем.
bulkaddurl.com. но только позвать Гугл бота.
Я делаю приблизительно что и они только дешевле в раз 10
Ничего не нужно отбирать, жестким спамом, только в путь влетают. Как будто толковые сайты дадут вам ссылки на доры у себя оставлять:)
А вылетают так же? Или это не критично? :)
А вылетают так же? Или это не критично? :)
Это уже заголовок для следующей темы, - Как сделать что бы не вылетало большое количество доров из индекса?
add-my-url.com пользуюсь этим сервисом дешевле от других раз в 5 быстро и качественно у булка очередь на 140 часов и дорого, прочим "студентам" не доверяю
prena, если вы скормили карту гулботу и у вас тормоза в индексе - этот сервис никак не помогает, ссылки также не лезут у них.
А у bulk-ов лезут и сразу индекс моментальный и быстрый становится. Так, что метода видимо разная у них и цена видимо отсюда растет.
Сколько людей столько и мнений, все что добавляю, если ссылка рабочая все заходит в индекс, да не сразу часа 5-10 надо подождать, это же не кролики)). Моментальный это через 130 часов у булк?)) Удачи.
---------- Добавлено 02.05.2019 в 13:23 ----------
Так он и не должен помогать)) сервисы индексят те страницы которые вы присылаете...может ещё сервисы должны транзакции на ваших сайтах делать?)) Отправьте не карту, а внутреннюю страницу и сравните, может у вас карта не правильно составлена или ещё что-то, в названии ссылки есть символы которые не нравятся гуглу... Тема индексации не такая уж и простая.
Друзья, вам не стыдно платить за то, чтобы googlebot просто пришел на все ваши ссылки? :) Индексация зависит во многом от самих страниц и внешних ссылок.
Если у вас нифига нету: ни сетки доров, ни прогона по форумам, ни рук, чтобы blogspot завести, то попробуйте вот такой метод:
1. Берете какой-то новый домен/поддомен/фрином, добавляете его в Google Search Console.
2. Создаете файлик links.txt с вашими ссылками, которые надо проиндексировать.
3. Создаете скрипт редиректа, который по запросу https://domain.com/123/ берет 123-ю ссылку из файла links.txt и редиректит на нее 301 редиректом.
4. Создаете файл sitemap.txt. И тупо в столбик делаете карту всех ссылок в виде:
https://domain.com/1/
https://domain.com/2/
https://domain.com/123/
4. Заливате все это на хостинг.
5. Добавляете sitemap.txt на индексацию.
Все, готово. Не надо, даже, никакого контента на этом домене, нифига. Если все нормально с доменом, вашим ip - то индексация уже началась. Гугл новые сайты в первые дни жадно индексирует. Ну, около 1000 страниц в сутки точно он пройдет. Даже, если у вас дор просит бана.
Большие sitemap.txt > 1000 ссылок делать не рекомендую. Без внешних ссылок индексация затухает через пару дней. Возьмите новый домен.
Если все очень плохо, то завтра напишу скрипт.
Друзья, вам не стыдно платить за то, чтобы googlebot просто пришел на все ваши ссылки? :) Индексация зависит во многом от самих страниц и внешних ссылок.
Если у вас нифига нету: ни сетки доров, ни прогона по форумам, ни рук, чтобы blogspot завести, то попробуйте вот такой метод:
1. Берете какой-то новый домен/поддомен/фрином, добавляете его в Google Search Console.
2. Создаете файлик links.txt с вашими ссылками, которые надо проиндексировать.
3. Создаете скрипт редиректа, который по запросу https://domain.com/123/ берет 123-ю ссылку из файла links.txt и редиректит на нее 301 редиректом.
4. Создаете файл sitemap.txt. И тупо в столбик делаете карту всех ссылок в виде:
https://domain.com/1/
https://domain.com/2/
https://domain.com/123/
4. Заливате все это на хостинг.
5. Добавляете sitemap.txt на индексацию.
Все, готово. Не надо, даже, никакого контента на этом домене, нифига. Если все нормально с доменом, вашим ip - то индексация уже началась. Гугл новые сайты в первые дни жадно индексирует. Ну, около 1000 страниц в сутки точно он пройдет. Даже, если у вас дор просит бана.
Большие sitemap.txt > 1000 ссылок делать не рекомендую. Без внешних ссылок индексация затухает через пару дней. Возьмите новый домен.
Если все очень плохо, то завтра напишу скрипт.
интересный способ 🍻
Всё вышеописанное можно сделать средствами nginx например :).