- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Financia, нет никакого ограничения на количество пингов с одного IP. Я уверен, что мы не единственны сервис который предлагает данную услугу (пинг поисковых систем или других пинг-сервисов) своим посетителям. Суть в одновременном пинге сразу нескольких микрофидов, или пинге через одинаковый промежуток времени. Вот это будет смотреться "спамно". Разнести программно пинг первых 10-ти микрофидов из 10 потоков по времени, скажем на 5-10 часов не проблема. После нажатия кнопки старт - стартует первый микрофид из первого потока, спустя 15 минут первый микрофид из второго потока, спустя Х минут - первый микрофид из третьего потока и т.д. Дальше все пойдет в разнобой (оно бы и без этого пошло в разнобой, просто первые 10-микровидов из 10 потоков стартовали в одно время, что меня лично смущает).
Если же добавлять прокси, нужны не абы какие из паблика, а стабильные и проверенные, желательно и вовсе свои. А это доп растраты, как следствие повышение цен. Вам это нужно? =)
Если же говорить о автоматизации процесса и экономии времени, то последовательность действий должна быть такая
Вы реализуете какой вариант?
alekzey, если он востребован, то да, но после того, как доделаем ру-версию
если он востребован, то да, но после того, как доделаем ру-версию
Ок. Буду ждать.
Сообщите, пожалуйста, когда русскоязычную версию запустите.
Sutener, обязательно сообщу о этом долгожданном событии =)
Добиваем последние тексты с копирайтером.
Пока суть да дело, предлагаю обсудить необходимость одного нововведения, которое мне предложил сделать один активный пользователь сервиса.
Коротко - парсинг тайтлов непосредственно с тех страниц, на которые ведут загружаемые в списке ссылки.
Подробно:
- заливаем список ссылок;
- скрипт пробегается по всем ссылкам и парсит тайтлы этих страниц (следует понимать, что чем больше ссылок в списке, тем длительней этот процесс);
- после парсинга мы получаем список в формате - урл|тайтл с возможностью редактировать его. На тот случай если будут пустые тайтлы, или тайтлы из серии "Главная", "контакты" и т.д. (выслушаю ваши предложения, по поводу того, в каком виде лучше всего выдавать подобный список, что бы процесс редактирования\навигации был максимально удобным);
- указываем оставшиеся настройки для пинга и запускаем процесс.
Плюсы нововведения:
- не надо ломать голову по подбору тайтлов;
- фиды получаются самые, что не наесть естественные (тайтл записи в фиде соответствует заголовку страницы на которую ссылается запись из фида).
Минусы:
- процесс парсинга большого количества тайтлов - может затянуться по времени;
- усложнение функционала сервиса = увеличение цен.
С удовольствием выслушаю ваши мнения по данному поводу, и всегда открыт для новых предложение =)
qqqwww,
предлагаю сделать парсинг тайтлов, но с возможностью вкл\выкл
а так мне идея очень нравится
Коротко - парсинг тайтлов непосредственно с тех страниц, на которые ведут загружаемые в списке ссылки.
Поддерживаю.
Плюс, как вариант - кушать url с sitemap.xml
усложнение функционала сервиса = увеличение цен.
а вот этого не надо :)
но если уж собрались делать то, как сказали выше, делайте с возможностью не включать парсинг чтобы не переплачивать.
Сам считаю парсинг тайтлов лишним, а вот получение ссылок из sitemap.xml было бы интересно
с включением\выключением и соответственно с отдельной оплатой парсинга тут надо подумать. У нас ведь тарификация не по количеству урлов, а по дням. т.е. нам проще добавить еще один тариф либо изменить один из текущих, где добавить такую возможность и просто учесть ее в цене за сутки\месяц. Ладно подумаем, вопрос по актуальности данного нововведения остается открыт.
Парсить карту сайта - без проблем, добавили себе этот пункт в список доработок.
Ну и кто еще не заметил, у нас изменился интерфейс загрузки списка ссылок (подготовительные работы к более серьезным изменениям ) + появился "калькулятор" расчета времени пинга.