Так, вроде немного разобрался.
Комментаторы выше правильно написали, что я описал обычный дорвей. Причем черный. Думаю, такое не хочу делать.
Глянул в сторону аукционов доменов. Вполне можно купить дешевые с икс 20-30.
Ну, тут уже никакой софт не поможет. Надо будет восстанавливть контент.
Другой вопрос тематика сайта. Например, сайт детского сада с адресом и телефоном. Понятное дело, это все сносится (или нет?).
А что дальше? Наполнить его статьями?
Никто тебе ничего не спалит и не даст бесплатно, могут только накидать идей. Под эти идеи пиши софт, ставь свои эксперименты и делай выводы.
Пока ноль идей )
Ну что ж, будем экспериментировать.
Абсолютно согласен. Но, возможно, у кого то есть тз готовое, а с меня софт.
В любом случае, попытка не пытка.
Суть вопроса - наполнение сетки. Что я понял из ликбеза - это пару десятков доменов и по несколько тысяч субдоменов на них. А что именно на каждом из них в качестве контента?
Это же не заполнение руками, алгоритмом подставляются ключи в контент каждой конкретной единицы. Вот именно что должно быть там?
И нет, обман это не наша история. То есть, ты считаешь, что метод шляпа?
Сам отвечу себе. Яндекс ответил.
Чтобы запретить индексировать такие страницы, в файле в robots.txt укажите директиву:Disallow: *?$
Причем я пробовал ставить эту директиву и проверять в онлайн в каком то туле, но он пропускал эти страницы. Это меня ввело в заблуждение.
В анализе роботов в вебмастере - это директива работает.
Об этом не думал, доменное имя да, типовое. А чем это мне может быть чревато?
А что значит подключили? Амп страницы это отдельный шаблон страниц, просто не выводите в нем то, что выводите на основной. В серверной логике запретите выводить рекламу.
Чем больше входов на портал, тем лучше, по моему мнению.
Есть агрегаторы регистрации, это быстро. Если вручную в каждой соцсети, то долго, плюс нужно приложение в каждой.
Вам правильно сказали, что find не ищет первый вложенный элемент. Используйте filter, он перебирает все элементы.
var div = $( data ).filter( "div" );