- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как насчет разработки и создания поисковой системы с обратной связью. Т.е. поисковик показывает ссылки которые пользователь оценивает выставляя "+" или "-". Затем результат поиска сортируется с учетом выставленных оценок и похожести содержания оцененных и всех страниц.
Или создание сайта - универсального форума.
Пользователи запрашивают некоторую информацию. Операторы находят её и предоставляют пользователям.
Пользователи оценивают работу операторов (рейтинг).
Операторы получают $ (зависит от рейтинга) за счет рекламы.
Споры в оценке и соблюдение правил - модераторы.
Администраторы - последняя инстанция.
на самом деле, первое предложение довольно интересно. Правда необходимо будет сделать защиту от кликов с одного IP и прочую защиту от спамерова-втыкальщиков.
на самом деле, первое предложение довольно интересно. Правда необходимо будет сделать защиту от кликов с одного IP и прочую защиту от спамерова-втыкальщиков.
Зачем? Пусть хоть затыкаются, сортировка индивидуальна для каждого пользователя и не сказывается на результатах других.
Но такая защита обязательно нужна для сайта - поиск операторами.
Если я понял правильно, то идея бредовая. Вот почему: с самого начала вы чем пользователей будете кормить? Какой выдачей?
А "+" и "-" будут выставляться на самой поисковой машине или же на сайтах, ссылающихся на продвигаемый(что само по себе - давольно геморная вещь)?
Получается, что пройдет не один месяц, пока у вас сформируются серпы, отвечающие вашим требованиям (при условии, что выдача единая будет для всех юзеров). А у вас - выдача индивидуальна - что само по себе - ерунда.
Человек, натыкающийся на дор в серпе яши не стучит ведь на него - времени жалко... А плюсовать или минусовать я бы лично не стал.
Все - ИМХО.
на самом деле, первое предложение довольно интересно. Правда необходимо будет сделать защиту от кликов с одного IP и прочую защиту от спамерова-втыкальщиков.
я думаю это не поможет, большинство пользователей будет просто игнорировать "+" или "-". Человек занят поиском а не анкетой... . Статистика.☝
Немного не так с "+" и "-".
Первый запрос пользователя по некоторым словам обычный как в других поисковиках. Плюсы и минусы напротив ссылок нужны только для сортировки результатов первого запроса, чтобы отсеять спам и остались вверху списка только полезные страницы.
К примеру слова со страниц "-" считаются нежелательными, а со страниц "+" наоборот всплывают вверх. Соответственно сортируются и сами страницы с текстом.
я думаю это не поможет, большинство пользователей будет просто игнорировать "+" или "-". Человек занят поиском а не анкетой... . Статистика.☝
Правильно, поиском. Но просматривать все результаты с найденными словами (обычный поисковик) нереально. Этот метод позволит отбросить страницы-ухищрения специалистов по раскрутке.🚬
Если я понял правильно, то идея бредовая. Вот почему: с самого начала вы чем пользователей будете кормить? Какой выдачей?
А "+" и "-" будут выставляться на самой поисковой машине или же на сайтах, ссылающихся на продвигаемый(что само по себе - давольно геморная вещь)?
Получается, что пройдет не один месяц, пока у вас сформируются серпы, отвечающие вашим требованиям (при условии, что выдача единая будет для всех юзеров). А у вас - выдача индивидуальна - что само по себе - ерунда.
Зачем месяц - налету будет, только нужен хороший алгоритм сходства-различия веб-страниц
Человек, натыкающийся на дор в серпе яши не стучит ведь на него - времени жалко... А плюсовать или минусовать я бы лично не стал.
Все - ИМХО.
Ага и со спамом в мыле не борешься методом "пожаловаться на спам"
захламить спамом такой продукт не составит труда
такой поисковик умрет от ддоса тысяч элитных проксей
захламить спамом такой продукт не составит труда
такой поисковик умрет от ддоса тысяч элитных проксей
Угу и яндекс и гугл умирают от ентого, а ведь у них доступны сложные запросы (слова включить, исключить, рядом, на одной странице и т.д.)