- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
нет. я не троллю.
Я понимаю что нужна тщательная модерация. Но ручная модерация не подходит.
Что делать?
p.s: можно подумать что на livejournal тщательная модерция?
Что делать?
Заняться другим делом.
хорошо, если ручная модерация.
По каким критериям удалять "лишние" блоги? Как определить что они лишние?
p.s: все ссылки неиндексируемые в javascript...ну вылетят сами блоги из выдачи..и че? не весь сервис же?
Как определить что они лишние?
Если они не для людей - они лишние, все просто.
Если они не для людей - они лишние, все просто.
ну так почему не может быть ситуации: яндекс сам удаляет из выдачи неугодные блоги (поддомены).
А я никуда не смотрю.
Почему не может быть так?
Почему не может быть так?
Потому что намного проще забанить один сайт, чем тысячи.
Потому что намного проще забанить один сайт, чем тысячи.
а как же на каждом поддомене файл robots.txt с директивой hosts? Из этого аопроса напрашивается вывод что Яндекс расценит эти 1000 как отдельные сайты...И с каждым будет работать по отдельности.
гугл,яху, мсн так же поступают?
а как же на каждом поддомене файл robots.txt с директивой hosts?
Причем тут это вообще?
гугл,яху, мсн так же поступают?
Хрен их знает...
my70, не нужно слушать того, кто никогда не пробовал создать сервис блогов.
Есть реальные сервисы, они работают. Их не банят.
Есть куча форумов с линками незнамо куда (SE - не исключение) - их не банят.
Есть откровенно не цензурные сайты с тицами за несколько тысяч и страницами в индексе сотнями тысяч, на которых двигается баннерообмен на дорвеи и платники - их не банят.
Однако объединяет все эти проекты одно - СДЛ.
Если сервис сделан для людей, то никто его не забанит. Но уж если это левенький сервис, на котором делаются 10000 блогов для продажи ссылок в сапе и ничего там интересного людям нет, то сакции последут, я уверен.
ЭтоНеЯ, банили by.ru, nm.ru, h 16.ru и наверняка еще кучу бесплатных говнохостингов. Если ты этого не знаешь - иди учи историю рунета.
Есть куча форумов с линками незнамо куда (SE - не исключение) - их не банят.
Заспамленные форумы банятся на раз-два.