Вопрос следующего характера. Перешел с ДЛЕ на Вордпресс, но при переходе по категориям теперь посты отображаются некорректно. http://dochkam.ru/ditjachi-virshi описание нормально (разное), а вот название и ссылки все от одной и той же новости. Хотя на главной все ок.
Все проблема найдена \ Ошибка в шаблоне.
Простите а нет случайно формы, чтобы ввести адрес сайта и получить ссылки этого сайта которые удалены из-за нарушения авторских прав?
Как узнать сколько и какие конкретно страницы удалены согласно == Уведомление об удалении материалов в соответствии с Законом США "Об авторском праве... Может есть сервис? Цель - проанализировать другие сайты, конкурентов к примеру. И как увидеть автора часто крякозябры какие-то. ( ÐлекÑандр Воронов )
смысл не в том чтобы найти и вывести посетителю похожие публикации, а в том чтобы журналисту при добавлении новости вывести похожие записи для недопущения повторов новостей
Подскажите как сделать такую реализацию. При добавлении поста или страницы на вордпресс проверяется есть ли такая или очень похожая публикация на сайте и выводятся похожие посты или страницы.
Также присоединяюсь к данному вопросу. Задача: настроить .htaccess так чтобы при переходе с поисковой системы гугл или яндекс посетителю отображались постоянные урлы в адресной строке. К примеру посетитель перешел с поисковика по адресу сайт.ру/раздел/название страницы.хтмл а в адресной строке ему отображается короткий адрес только сайт.ру. Но поисковый робот все видит нормально. Предложения в личку.---------- Добавлено 09.07.2012 в 17:47 ----------И чтобы поисковую систему можно выбирать
Подскажите как изменить адрес уже опубликованной новости. Меняю через админку во вкладке дополнительно (ввожу другое название на латинице) но при попытке посмотреть сайтмап он почему-то не переписывает этот адрес и к тому же новость доступна как по старому по адресу так и по новому и вообще если адрес к примеру 75-novost-klasnaya.html тогда новость доступна и по адресу 75-novost.html и если изменил 75-novost-klasnaya-novaja.html
Адрес изменяется, просто была проблема с кешем. А вот то что страница доступна по разным адресам не есть хорошо. Новости доступны по всем адресам до 75-n.html то есть до удаления предпоследней буквы в адресе.
mursoul Вы написали автоматика дело такое. Если не секрет каким ПО пользуетесь? Конечно если это не является коммерческой тайной (можно в личку). Это первый вопрос. А второй такой - Какой из Ваших тарифов может помочь вывести сайт из-под фильтра Яндекса. И существует ли у Вас такая услуга?
h1 - на главной название сайта h2 - тайтлы в новостях h2 или h3 - категории
h1 в полной название новости, но главную уже убрать h2 - категории
А вообще правила такие:
При верстке старайтесь грамотно использовать заголовки. Количество заголовков на странице:
тег <h1> — 1
тег <h2> — 2-3
тег <h3> — 3-6
тег <h4> — 6-12
и т.д.
Вот и считайте.
Хотелось бы рассказать о том, какие цели я достиг при заказе такого рода прогона своего сайта у mursoul. Моей целью была быстрая индексация новых сайтов и помощь в выводе из-под фильтра зафильтрованых сайтов. Так вот, при этом прогоне сайты залетают в индекс Яши на раз. Вот насчет того, помог ли прогон выводу из-под фильтра Яндекса пока сказать утвердительно не могу. Надо подождать пару апов. Правда хотелось бы узнать у автора ответ на такой вопрос: каков процент индексируемых ссылок из общего количества в тарифе, и сколько в одном аккаунте с закладками максимальное количество сайтов (если аккаунты не отдельные)?