ошибка, скорее всего, в кавычках вExecStart=/bin/sh -c ...- systemd не любит лишние слэши, вложенные кавычки и прочий цирк. упростить надо.
вот рабочий вариант:
[Unit] Description=Настройка iptables и ip_forward After=network-online.target Wants=network-online.target [Service] Type=oneshot ExecStart=/usr/local/bin/network-init.sh ExecStop=/usr/local/bin/network-save.sh RemainAfterExit=true [Install] WantedBy=multi-user.target
и два скрипта:
/usr/local/bin/network-init.sh
#!/bin/bash echo 1 > /proc/sys/net/ipv4/ip_forward iptables-restore < /etc/ip_rulles.lst
/usr/local/bin/network-save.sh
#!/bin/bash iptables-save > /etc/ip_rulles.lst
не забудь:
chmod +x /usr/local/bin/network-*.sh systemctl daemon-reexec systemctl enable my-network-config
так systemd точно не будет ругаться.
никак. ставь запрет копирования в настройках группы - это уберёт форвард и скачку медиа, но тот, кто внутри, всё равно может снять текст через API или банально копи-паст. максимум - чистишь подозрительных юзеров и вешаешь водяные знаки, чтобы знать, кто слил.
у тебя в html летит <meta name="robots" content="noindex, nofollow"> или headerX-Robots-Tag: noindex. гугл это читает, яндекс игнорирует — вот разница.
curl -I https://site.com/page | grep -i robots
гугл и яша видят display:none, treat как скрытый линк = спам. пользы ноль, риск схлопотать фильтр. хотите ссылку - берите нормальную видимую, ставьте rel=“sponsored” и спите спокойно.
делают, да. генерят пачку мусорных страниц или клеят к дропу с жирной историей — ahrefs видит «+10 k keywords», через апдейт всё падает, а ты получаешь помойку в индексt
хочешь просто накрутить кейворды - выкинешь деньги.
google news смотрит, чтобы datePublished<dateModified. если наоборот - ловишь warning в search console, и робот может решить, что статья «не готова» или свежесть сомнительная. ранжирование это почти не роняет, но в топ‑сторис /News может не попасть.
то, что вы выравниваете даты - правильный ход. главное, чтобы обе стояли в ISO‑формате и были в видимой части страницы (например, в<time>). тогда schema валидна, и вопросов у гугла не будет.
прямого штрафа нет.
блок не должен закрывать текст и прыгать при загрузке - тогда гугл не тронетяндекс и гугл смотрят на поведение: мешает людям - растут отказы - позиции сами просядутесли в блоке рекламные или партнёрские ссылки - добавь rel="nofollow"
делай удобно для пользователя, и всё будет норм.
Метрика сама по себе не ранжирует. Яндекс ранжирует по пов факторам. аналитику лучше всего ставить на self‑hosted Matomo + лог‑парсер, чтобы метрики отслеживать все равно