Я вот о том же думаю. И никогда на нем не затачивался...
Просто по моему региону СЧ имеют по 30-100 показов в месяц... вот я и подумал, не упускаю ли я чего...
Я почему и спрашиваю именно статистику. Вдруг есть расхождение между теорией и практикой
1.ругается на отсутствие alt
2.не закрыт тег </ul>
3.не закрыт <br> //<br />
Зы там есть кнопка, чтобы посмотреть код
1.WM - блокировка
//есть варианты, с трояном, например, когда ВМИД блокируется...
2.Обязательно терминал - терминал это от 5 до 20% от суммы + сбор вебмани
//при определенных суммах это слишком жирно
3.Получение сертификата - это отдельная история и отдельный финансовый вопрос
_______________
Яд
1.Возможность банковского перевода
2.Более менее нормальный вывод денег
//Хотя и здесь не все безоблачно
3.Куча договоров на беспроцентный перевод
________________________________
Мое ИМХО WM и ЯД должны быть обязательно, жаль, что многие не то чтобы не понимают этого... скажем так. "белый" ЯД не всех прикалывает, а жаль.
Ах вот оно чё!
У меня в статистике такая фигня висит уже месяц, т.е. кто-то ежедневно идет на одну и ту же страницу со старой вкладки и каждый раз читает это предупреждение?.. странно.
А если результаты Яндекса в закладки добавить будет работать?
Седня попробую...
Если впадать в полную паранойю, то лучше всего отдавать 404)))
Ибо у меня есть подозрение, что Яндекс к примеру один фиг собирает все тексты с сайта обходя robots
Как обходит?
В большинстве случаев в robots-е Яндекс описывают отдельно открывая страницы для архиватора, например
Или, что еще лучше для любого робота, кроме Яндекса...
Зачем ему это надо?
А как он узнает, что сайт не достаточно хорош для выдачи? Или, например держит его в 30-ке без видимых причин...
Но это так. В порядке берда... Подумать
samimages добавил 20.03.2011 в 10:35
Эт да))))))
noindex и nofollow - при этом текст попадает в базу Яндекса, а ТС борется за чистоту "совести" сайта
Может у меня частный случай, но в два ни разу не укладывался и это при:
404, удалить урл, robots.txt
один фиг месяц / полтора в выдаче... только позиции падают... потом одним махом исчезает все
samimages добавил 20.03.2011 в 10:26
Какбы сказать... нельзя командным файлом своего сервера, воздействовать на содержимое сторонней базы данных.
Выдача - то что Яндекс "скачал" себе на комп и удалить может только Яндекс.
Все остальные методы служат либо для предотвращения "скачивания" либо для указания на то, что документ более не существует.
Второй случай занимает время.
robots.txt ему в помощь
ТС, если это необходимый людям текст, но при этом он не является каким либо докуметом, а просто скажем какое либо интервью
Закройте его от индексации и не парьтесь. Так надежней всего будет. Хотя при наличии одной не уникальной страницы, тем более отдельной... маловероятно, что будут какие-то негативные моменты для ключей не относящихся к конкретному тексту.
🍿 - подписался
Если подсказка полна, то нафига нужна ссылка? Тем более это отвлекает от материала...
замените обработку на <span title="">
и по линковке вопросы отпадут и для людей ничего не изменится