Да, парсит без проблем. Попробуйте еще с выполнением JS-а парсить (Configuration -> Spider -> Rendering -> выбрать JavaScript -> OK.)
Проверяйте индексацию оператором site:URL , Где URL - именно вашей страницы. Если адвего и текст ру нашли вашу страницу, значит она проиндексирована, скорее всего. Так как все сервисы проверки уникальности ищут по ключевым словам \ фразам похожие тексты именно в поисковых системах.
В целом, я бы не придавал этому большое значение!
Вопрос изначально поставлен не корректно:
1) Реально ли? Да, реально
2) Что для этого нужно сделать? Всё зависит от конкуренции \ региона и многих других факторов. В целом продвижение лендинга не отличается от продвижения обычного сайта. Но лендинг не может ранжироваться по всему спектру СЯ. Если у вас есть 1 группа запросов, конкуренция по которым низкая, тогда продвинуть реально.
Чтобы "роботы жили на сайте" просто публиковать ежедневно 10 статей будет не достаточно. По моим кейсам это происходит со временем. Индексация статей в течении 20 минут (на некоторых моих сайтах) происходит при нескольких важных факторах:
1) Определенный уровень авторитета у домена и сайта. +- от 30 DR на Ahrefs
2) Присутствие сайта в гугл новостях.
3) Определенный уровень поискового трафика.
На, относительно, свежем сайте, сколько статей не публикуй, всё ровно роботов ждать приходится долго.
Также не принимает несколько сайтмапов на разных сайтах. Пока проблему встречал именно на свежедобавленных сайтах. Читал на форуме для вебмастеров, что это баг, как отмечал vvovvo. Кому то помогают манипуляции с изменение названия \ расширения карты сайта, но я думаю, что это проблема временная. Никаких ошибок нет, именно баг. Если у кого то есть другая инфа - было бы полезно понять в чём причина!
Макеты = прототипы или сам дизайн имеется ввиду?
Прототипы - Axure
Дизайн - Фигма\Скетч (есть куча аналогов и инструментов)
Вводите в гугл: free photo stock
Находите кучу подборок бесплатных фотостоков.
От сложности и самого специалиста зависит. Можно и за час накидать лендинг, а можно неделями проектировать UI админки.
Обычно, даже когда сайт уже год отдаёт 404 ошибку, какая то часть находится в индексе.
Если страницы проиндексированы, не закрывайте сайт в роботсе! Разместите meta robots noindex \ follow. Чтобы он смог ходить по сайту и видел запрещающий тег.
Сильно ускорить робота, чтобы он чаще ходил \ больше сканировал, не получится!
Точнее и не скажешь. Для 95% задач вебмастера хватит любого офисного ноута, но тут уже речь о комфорте. Есть коллеги, умудряются работать на планшетах (юзают облачные софт решения). Но тут, скорее, вопрос к форумчанам, готовы ли вы платить за дополнительный комфорт в работе?
Моё субъективное, возможно в корне не верное мнение, что у всех спецов IT отрасли, должно быть актуальное железо. И тут, скорее, не от словосочетания "должно быть", а самому же приятно. :) Рабочий день 8-10 часов и даже если 5% ежедневного времени уходит на ожидание каких то подгрузок \ перезагрузок и прочее, за неделю это выливается в пару часов рабочего времени. А как сказал treshnyuk, всё это познаётся в сравнении.
В целом да, но думаю обновляться. Поэтому, собственно, интересно кто и какое железо в работе использует.
Начинает не хватать, когда скриминг фрог краулит большие сайты, параллельно какой то процесс в хроме, запущен фотошоп. Такое бывает не часто, конечно, но рабочий инструмент должен прям летать при любых условиях. имхо.
Тут всё сугубо индивидуально, как мне кажется. У меня всё чаще и больше принимают криптой, а потом продают у себя как им удобно (карта, нал, вебмани, яд и тд. через локалбиткоин).