- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сам https://www.majestic12.co.uk/ по прежнему жив, но занимается он линками или чем-то ещё -нужно смотреть.
они с 2014 года не принимают новых пользователей
Все сео компании и крупные сеошники нуждаются в общей степени во многих вещах, но почти всё уже давно реализовано. Могу лишь сказать, что не видел толковой системы управления проектами чисто под SEO, что значительно бы упростило работу над проектами.
Крупные seo компании себе сами пишут, но туда тратится колоссальное количество денег. Я думаю 95% себе такого позволить не могут.
Думаю было бы круто сделать свою систему управления проектами под SEO и её продавать. Правда тут нужны тебе будут сеошники, чтобы всё грамотно сделать и продумать, да и работы море.
Анализатор топа, который максимально учитывал ( собирал и хранил по датам) внешние и внутренние факторы, которые поддаются определению с привязкой к сайту заказчика и к сайтом в серпе до 30-й позиции. Все это объединял в общею базу по всем пресекаемым запросам, чтоб можно было по запросу получить эти данные в удобной форме для отслеживания изменений в корреляции к местам в топе по каждому сайту или запросу во времени.
Сколько стоил бы результат - много. Сколько бы он приносил дохода создателю - не знаю. Но сильные игроки за это бы точно платили очень хорошо, а школьники могли бы покупать в таком сервисе отдельные услуги типа отслеживание позиций, сравнение текстовых факторов сайтов в топе и тд. того на чем создается главная база знаний.
Конкурентов не только парсит, продвигает, но и уничтожает по требующемуся запросу.
УНИЖАЕТ)))
Анализатор топа, который максимально учитывал ( собирал и хранил по датам) внешние и внутренние факторы, которые поддаются определению с привязкой к сайту заказчика и к сайтом в серпе до 30-й позиции. Все это объединял в общею базу по всем пресекаемым запросам, чтоб можно было по запросу получить эти данные в удобной форме для отслеживания изменений в корреляции к местам в топе по каждому сайту или запросу во времени.
Сколько стоил бы результат - много. Сколько бы он приносил дохода создателю - не знаю. Но сильные игроки за это бы точно платили очень хорошо, а школьники могли бы покупать в таком сервисе отдельные услуги типа отслеживание позиций, сравнение текстовых факторов сайтов в топе и тд. того на чем создается главная база знаний.
Хорошая идея для проекта. Есть несколько технических аспектов нормального решения для которых я пока не вижу -
Во первых это сам парсинг Гугла. Я сторонник подхода который описывал выше - тоесть СЕОшник ставит себе локально клиент и тот получает с сервера задания(ключи и к примеру локали под которые парсить) и парсит с машины на которой установлен выдачу Гугла и отправляет инфу на сервак. Так из ручейков с каждого клиента на сервере образуется океан данных. СЕОшник за проделанную работу получает кредиты и тратит их в сервисе. Здесь если парсить с одной айпи - Гугл быстро наложит бан. Раздавать всем подряд прокси с сервера не вариант(или вариант ?) и проксей на всех не напасешся. Нужно придумать как безболезнено для Гугла и пользователя парсить выдачу с клиентских машин..
и проксей на всех не напасешся
От чего же.
От чего же.
вопрос в цене, вот к примеру ahrefs.com заявляет на своей главной странице что парсит веб на 10000 ядрах. Будем считать 1 ядро = 1 клиент. К примеру если произойдет чудо и мы тоже подключим 10к СЕОшников и каждый на своем компе установит наш клиент.. сколько по деньгам будет стоить обеспечить 10к клиентов рабочими проксями и какое их кол-во потребуется на 1 клиента ?
brunoid, А счего вы решили, что ктото изза копеечной экономии будет ставить на свой комп ваш клиент? А если будет, то оцените эффективность
пс. Они может и не лишние, но больше плюсов не вижу. работы с такими клиентами?
brunoid, А счего вы решили, что ктото изза копеечной экономии будет ставить на свой комп ваш клиент? А если будет, то оцените эффективность
пс. Они может и не лишние, но больше плюсов не вижу. работы с такими клиентами?
по моему скромному мнению большинство посетителей этого сайта игнорят такие сервисы(хотя и нуждаются в них) именно из-за необходимой обязательной оплаты. Модель описанная мной на мой взгляд решает эту проблему. Многие из нас сидируют торренты на волонтерских условиях.. тот же принцип будет работать и здесь.
На счет эффективности - все зависит от кол-ва клиентов на машинах пользователей. Здесь сложно что либо предположить.
Вот тебе идея - /ru/forum/942938
Автор ее благополучно загубил... но все в твоих руках...