- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![Все что нужно знать о DDоS-атаках грамотному менеджеру](https://d.searchengines.guru/20/96/ddos_vc-1_600x314__16e230ee.jpg)
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такой вопрос, возьмем любой форум, например этот,
Откроем любую тему, в результате например
ссылка выглядит
showthread.php?t=номер темы
далее если мы откроем тему с указанием поста то будет showthread.php?p= номер поста
ну и можно открыть отдельно пост showpost.php=
Такой вопрос. во всех 3 случаях получается ссылка на один контент, точнее когда показывается отдельно пост - это дубликат куска текста темы, ну а показвание поста в теме - целиком дубль, получается что нужно запрещать поисковикам индексировать ссылки на посты и ссылки на тему с указанием поста. оставить только линки на тему или как?
для этого в robots.txt необходимо запрещать индексацию всего лишнего.. совсем все запрещать не надо.. Только сами дубли.
Для распространенных движков существуют шаблонные robots.txt. Их легко найти на специализированных форумах.. я огу подсказать по ipb.
для этого в robots.txt необходимо запрещать индексацию всего лишнего.. совсем все запрещать не надо.. Только сами дубли.
Для распространенных движков существуют шаблонные robots.txt. Их легко найти на специализированных форумах.. я огу подсказать по ipb.
про robots.txt я в курсе, меня как раз и смутило, что никакие форумы не запрещают эти дубли, поэтому у меня такой и вопрос, нарпимер взять роботс этого форума, ну или других крупных на движке вбуллетин, у них не запрешен файл showpost, файл printthread (показть в текстовом варианте), это получается все дубли, это их косяки получается?
правильные форумы запрещают дубли. больше не знаю, что сказать..
Насчет "никакие" - вы не правы..
правильные форумы запрещают дубли. больше не знаю, что сказать..
Насчет "никакие" - вы не правы..
а можно пример правильных форумов)
а можно пример правильных форумов)
🚬
🚬
а ничего, что я написал уже, что это форум вообще не оптимизирован, даже сессии не убраны, так и еще тут в роботс дубли не убраны! showpost printthread не заблочены! 😡
Когда-то пытался найти хоть один форум на вобле, где роботс учитывает все эти моменты - так и не нашел. И всё равно тот же сёрч и яша, и гугл не трогают за эти дубли.
У себя же вроде бы всё что можно позакрывал - яша всё равно зверствует и пишет, что спам на форуме. Платону писал - ответил стандартно, типа "хз, что это такое, будем разбираться".
смотрите в сторону исходящих - если их все закрыть обычно с форумом все ок
Правильное SEO по моему ИМХО это минимальное SEO, чем больше Вы будете вбивать ключей, карты сайтов и все устраивать для ботов, тем лучше сайту будет житься.
Правильное SEO по моему ИМХО это минимальное SEO, чем больше Вы будете вбивать ключей, карты сайтов и все устраивать для ботов, тем лучше сайту будет житься.
вопрос не про это, а про дубли в форумах) ☝
TTR добавил 12.05.2010 в 03:51
Когда-то пытался найти хоть один форум на вобле, где роботс учитывает все эти моменты - так и не нашел. И всё равно тот же сёрч и яша, и гугл не трогают за эти дубли.
У себя же вроде бы всё что можно позакрывал - яша всё равно зверствует и пишет, что спам на форуме. Платону писал - ответил стандартно, типа "хз, что это такое, будем разбираться".
я вообще жестко заоптимайзил, робот даже не видет дублей) посмотри - http://neverfold.ru
а у тебя не упал траф, после того как ты запретил все, я просто вот думаю, что может лучше не запрещать, если он в индекс отправляет и 10 постов и страницу с постами?