- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Планируем запускать новый сайт (язык - английский). Вкратце - это база файлов определенного назначения (ничего запрещенного). Таких файлов около 120000. Для каждого файла есть отдельная страница, заточенная под НЧ "имя_файла" и "download имя_файла". Нормально ли делать сайт с таким количеством страниц или лучше разбить его на несколько (3, 5, 10...) сайтов и продвигать их параллельно (т.е. в первом случае мы купим одну ссылку с чужого сайта на наш, а во втором - по одной ссылке с чужого на все наши)?
Нормально ли делать сайт с таким количеством страниц
нормально. Это будет дешевле, чем
разбить его на несколько (3, 5, 10...) сайтов и продвигать их параллельно
ормально. Это будет дешевле, чем
угу, и под фильтр если уйдет то сразу весь ;)
под фильтр если уйдет
чего ж ему под фильтр уходить, если:
это база файлов определенного назначения (ничего запрещенного).
Умеючи, конечно, можно что угодно под фильтр загнать.
Лучше один сайт с грамотной перелинковкой похожих файлов и системой категорий/тегов (через которые и заливать ссылочный вес на отдельные страницы).
Кто не рискует, тот не пьет шампанское ж) Все в ваших руках.
чего ж ему под фильтр уходить, если:
да тут у всех белые и пушистые сайты, только тем о фильтрах почему то много
имхо, самый важный фактор последнее время - TrustRank - на 5 сайтов вспотеете набирать.
Кстати вопрос довольно интересный. Сам размышляю над поднобным, сайт на 10 к статей, как это все грамотно разом залить, чтобы хотя б 90% осталось на плаву - задача не из простых...
Пробовал месяц назад с сайтом - примерно 500-1000 страниц в сутки появлялось новых - индекс молниеносный, 20к страниц в индекс залезло, при этом трафика очень мало, почти все страницы под фильтры, хотя и перелинковка, и домен хороший и беки растут.
Всё зависит от того, как качество это будет сделано. Ведь кривыми руками даже самый чистый СДЛ завалить не проблема, а что тут говорить про такой сайт.
анонимусам - вы бы хоть аргументировали комментарии свои ("(-) ппц..")