Это если анкор уникальный на проверяемой страницы, и если ссылко не в контексте
А вообще с помощью скрипта который выдергивает все внешние ссылки с http://webmaster.yandex.ru и потом сравнивает с указанными вами
а вы похулиганить вздумали, то то я гляжу некоторые ссылки купленные в сапе не индексируются ;)
быстророботом
а о 10-и вложенных таблицах никто и не говорил, я говорил о большом колличестве вложенных - 50 и более таблиц и потом все это относительно в плане "тяжелых" страниц, много факторов влияет на "тяжесть" страниц и это один из них; сложный дизайна ,объем графики, каковы ресурсы хост-сервера, каков движок который будет генерить эти страницы и прочее..
я лично не покупаю ссылки с дорогих морд (да и дешевые стараюсь не брать) если на внутренних стоят ссылки, риск уж очень велик что морда-сайт под фильтром, а значит немалые деньги - впустую
чето не понятно а какое отношение <index> к тегам таблицы? теги таблицы никакого отношения к индексации не имеют
используйте <div>
P.S. никак не пойму чем вам так таблицы "насолили" 😂
а когда "хозяйский" сайт попадет под санкцию за "хулиганство", вы как будете хозяевам объяснять?
Вот вам и обоюдная НЕвыгода, как говориться ни покупателям ни продавцам
я вообще не понимаю логики в действиях тех кто так делает, зачем хитрить и потом сидеть и трестись кабы что не вышло. Ну хочешь денег заработать от своего проекта так приложи немного усилий, оформи красивенько ссылочки..про количество ссылок я уж не говорю...и обоюдная выгода будет и тем кто продает и тем кто покупает
м,дя BlogMaster, как вам только в голову такое пришло, хотя вы не первый, бывает и такое что просят заменить теги таблицы на <div>, якобы услышали что поисковики больше этот тег любят 😂 - бред. Единственные минусы от таблиц - меньше "гибкости" в стилях и если слишком много вложенных таблиц на странице она долго будет грузиться
Kirik, правильно mhz заметил, записи надо местами поменять иначе например гугл нижнюю запись не прочтет (хотя она в вашем варианте не нужна, вы там все равно ничего не запрещаете), гуглу не понятна директива host и поэтому вторую запись проигнорирует, а в остальном все правильно записано, хотя идеальный вариант - как советует Playmаn в любом случае странно почему Я показались запрещенные к индексации страницы
Использование robots.txt