- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Что касается передачи веса по анкорам, то (это кстати уже обсуждалось на этом форуме) для обработки текстовых ссылок и вычисления веса передаваемого по ним алгоритм будет намного сложнее, и такая программа будет стоить совсем другие деньги (плюс нужно будет взять несколько мощных серверов, ибо ресурсов будет кушать прилично).
А Вы разве не хотите больше зарабатывать? Эту программу будут покупать многие Seo компании. Сколько стоит к примеру CS Sapemaster или C Yazzle? Раз уж Вы взялись за создание программного обеспечения, то можно потратить времени и сил, чтобы создать действительно уникальный и качественный инструмент для России. Как вы знаете, на данный момент аналогов такого ПО в России еще нет.
Скажите пожалуйста, а большие сайты есть возможность спарсить определенное количество страниц. А то я купил программу. Потратил два дня на парсинг. Не выключал комп. И ошибка возникла на 30K. В приниципе для больших сайтов не обязательно все выкачать, важно просто какую то выборку.
(сорри если где то есть ответ, нет реально времени просто все прочитать)
Это обсуждается со времени первого релиза программы :)
30К страниц - это рекорд. Видимо у вас очень мощный компьютер. Я сейчас работаю над второй версией программы в которой уже не будет проблем с размером сайта. На данный момент я не вижу смысла добавлять ограничения по страницам как раз из-за этого, к тому же если не отсканировать весь сайт то значения весов будут неверны.
На данный момент вы можете использовать для ваших целей список исключений для ограничения области сканирования (Настройки->Опции). Например добавление исключения: /files/ - запретит сканировать все страницы в ссылке которой есть это выражение.
"Денег много не бывает". Но я соизмеряю затраты труда и возможную отдачу. Еще раз повторяю разработка и реализация подобного алгоритма потребует очень много трудозатрат, и в одиночку я это просто не потяну, значит проект потребует дополнительных инвестиций (кстати вы готовы стать инвестором?). А с точки зрения реализации такого продука - все достаточно сомнительно. Хорошо если его купят 2-3 крупные компании, но на этом может все и закончится. Вот лично вы сколько готовы потратить на подобное ПО?
"Денег много не бывает". Но я соизмеряю затраты труда и возможную отдачу. Еще раз повторяю разработка и реализация подобного алгоритма потребует очень много трудозатрат, и в одиночку я это просто не потяну, значит проект потребует дополнительных инвестиций (кстати вы готовы стать инвестором?). А с точки зрения реализации такого продука - все достаточно сомнительно. Хорошо если его купят 2-3 крупные компании, но на этом может все и закончится. Вот лично вы сколько готовы потратить на подобное ПО?
Я готов потратить сколько угодно денег, чтобы вывести сайт по ВЧ.
А еще больше, если мой интернет-магазин благодаря лишь грамотной внутренней оптимизации будет висеть в ТОПе по НЧ. Это сэкономит в первом случае минимум 200 у.е. в мес., а во втором я вообще почти не буду ставить ссылки. Работать только над качеством сайта.
Оценивать это можно минимум в 150$ для данной программы. А насчет покупки программы Вы немного не правы.
Яндекс идет по пути Гугл. И через некоторое время по всем некоммерческим запросам ссылки перевтанут передавать такой вес, как сейчас. А по однословным коммерческим, например "переезд", сколько ссылок не покупай, а без прокачки главной страницы внутренними ссылками и грамотной внутренней перелинковки в топ не выйдешь. Уже в топ по этому запросу находятся сайты с копеечным бюджетом. Просто люди тратят много времени на оптимизацию каждой страницы и программы для подсчета правильности всех проведенных манипуляций нет. А как будет классно, если сайт, вышедший в ТОП почти без ссылок, например по запросу "Переезд", который стоит очень дорого, можно будет отсканировать в полном обьеме без ограничений на первую ссылку.
Я бы с удовольствием стал инвестором такого проекта, только это уже другая тема. Кстати о каких деньгах идет речь? Можно в личку?
Я готов потратить сколько угодно денег, чтобы вывести сайт по ВЧ.
...
Я бы с удовольствием стал инвестором такого проекта, только это уже другая тема. Кстати о каких деньгах идет речь? Можно в личку?
Хм. Почему нет? Только возникает вопрос: как определить величину передаваемого веса ссылкой с анкором по тексту этого анкора?
По поводу объема вложений - честно не знаю, нужно сначала определить объем работ. Но можно вернуться к этому разговору после выхода второй версии.
workint, для продвижения по НЧ в гугле и яше, информации, которую выдает программа в отчете за глаза.
Опираться только на данные, которые дает программа ИМХО глупо, т.к. в любом случае нужно включать мозги - система тоже может дать сбой и предоставить неверные данные.
Не думаю, что Sapemaster или Yazzle хорошие примеры для сравнения, т.к. у них совсем другая направленность, да и разработку ведет не один человек.
ОффТоп: Смысл покупать Sapemaster, если плагин вика решает те же самые задачи и бесплатно ???
Введите пожалуйста опцию, что можно было вырезать меню сайт из получения данных. Я думаю можно реализовать её просто не учитывать дублирующиеся ссылки на всех страницах (те. если ссылка присутствует на всех страницах сайта, это меню).
А то получается если на сайте 1000 страница, то получится, что на главную ведут 1000 страниц, хотя поисковик вырезает навигацию по идее.
А то получается если на сайте 1000 страница, то получится, что на главную ведут 1000 страниц, хотя поисковик вырезает навигацию по идее.
Он не учитывает её как источник контента, но открытые ссылки с неё он учитывает по идее.
Введите пожалуйста опцию, что можно было вырезать меню сайт из получения данных. Я думаю можно реализовать её просто не учитывать дублирующиеся ссылки на всех страницах (те. если ссылка присутствует на всех страницах сайта, это меню).
А то получается если на сайте 1000 страница, то получится, что на главную ведут 1000 страниц, хотя поисковик вырезает навигацию по идее.
Меню у всех разное и чтобы правильно его не вырежешь, даже поисковики пока не обладают искусственным интеллектом чтобы это делать.
Что вам мешает поставить меню в <noindex></noindex>?
exp131, еще раз спасибо... новую версию слил и сделал гут "трудному" сайту :)
Планируется ли выпуск версии под Mac OS X?