- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Это смотря на каком сервере и каком десктопе :)
Скорость как минимум будет выше из-за высокоскоростного канала :)
exp131, серьезно? А то, что обещанные 100мб у 99% провайдеров шареды, ни о чем не говорит?
логично предположить, что он будет платный
Логично :)
например демо тариф просканит и вес покажет сайт-визитка (50 стр.) (мини-аудит) - для заманивания новых клиентов :)
Не, 50 страниц даже на демо режиме не интересно совсем. 50К страниц - еще куда ни шло.
Если потребуется более "тяжелый" сайт (новостник) - то цена будет зависеть от страниц, как понимаю 🍿
P.S. Сугубо мое предположение ☝
Как бы ответить, что бы не спалиться раньше времени... :) ... Близко, но не совсем. Тут не от объема зависит, а от частоты обновления сайта скорее...
Хорошо, не будем предпологать, а немного подождем! ^_^
exp131, серьезно? А то, что обещанные 100мб у 99% провайдеров шареды, ни о чем не говорит?
Абсолютно. Мы сравниваем десктоп и сервер. А ДЦ, в общем случае, дают более широкий канал нежли "домашние" провайдеры.
И в конце концов, если у Вас дома гигабитный канал и многопроцессорный десктоп то могу только позавидовать :)
Большинству же, думаю будет полезна серверная версия именно из-за более высокой скорости сканирования.
Прошу прощения, проглядел. На указанном пациенте ссылок из меню не обнаружено.
Точно! Похоже, что где то кешировалось. Прошу прощения за беспокойство!
Сам софт немного сыроват, но я думаю в базе все это постепенно "допечется", особенно не хватает списка анкоров входящих ссылок на данную страницу. И еще - если на одной странице несколько ссылок ссылающихся на одну и ту же страницу, то они считаются копией, и поэтому сводятся к одной, да? Мне кажется что лучше этого не делать, чтобы можно было видеть все ссылки и принимать решение о "зачистке" лишних дублей в ручную. :)
За софт спасибо большое!
Если есть достаточные серверные мощности, то можно просто отсканить весь рунет, а для дальнейшего анализа сайтов просто доставать сайты из базы.
Мне один чел говорил что так сделает ещё невесть когда, затем написал что уже сделал наполовину... потом тупо пропал. Даже тему уже не найду.
Большинству же, думаю будет полезна серверная версия именно из-за более высокой скорости сканирования.
Большинство, обычно, сервер нафиг ложит( И даже не из-за того, что оно большое большинство, а потому что скрипты не расчитаны на высокую нагрузку.
Если есть достаточные серверные мощности, то можно просто отсканить весь рунет, а для дальнейшего анализа сайтов просто доставать сайты из базы.
Мне один чел говорил что так сделает ещё невесть когда, затем написал что уже сделал наполовину... потом тупо пропал. Даже тему уже не найду.
Не все сразу, да и обладая достаточными мощностями отсканить рунет это далеко не "просто". Но дорогу осилит идущий ;)
Большинство, обычно, сервер нафиг ложит( И даже не из-за того, что оно большое большинство, а потому что скрипты не расчитаны на высокую нагрузку.
Так ведь не на скриптах живем :)
А на чем? (зеваю со скуки)