Вот видите, с теми кто работает вчерную - одни проблемы. А с теми кто работает по закону и вбелую - другие проблемы. Нет счастья в интернете.
Так тот, не будь дурак, тоже скажет что он автор. И его авторство тоже презюмируется. Так что доказывать все равно придется по-человечески. С документами, экспертизами и отпечатками пальцев.
Проблема в том, что оспорить законность выдачи этого свидетельства совсем несущественно сложнее, чем сами авторские права.
В ситуации когда А говорит "это я нарисовал дизайн", а Б говорит "нет, это я нарисовал" - свидетельство о регистрации АП вам совсем не поможет. И не поможет оно в ситуации когда Б говорит "этот дизайн отличается от дизайна А, видите тут точечки в крапинку". Оно поможет в ситуации, когда Б говорит "нарисовал не я но и не А, и А не имеет права подавать на меня в суд".
Но реально первые две ситуации встречаются в судах гораздо чаще чем третья.
В Америке кстати магазины имеют право покупателя, который часто возвращает товар, вписывать в черный список и больше ничего ему не продавать. А в РФ магазин такого права не имеет.---------- Добавлено 28.11.2019 в 16:41 ----------
Справедливости ради, на алиэкспрессе мало кидал. Найти в принципе можно, но надо очень постараться. А вот в результатах поиска Яндекса кидал намного больше.
Вот тут у вас с терминами промашка вышла. Не за банк, а за сервис финансовых услуг. Не банковскую лицензию требует, а лицензию на финансовые услуги.
Такая лицензия на самом деле нужна по закону для вашей деятельности. И получить ее обычно во многих странах гораздо проще, чем банковскую лицензию.
"Просканирована но пока не проиндексирована", для данного раздела сайта, больше чем 95%. "Является копией" - такого нет вообще на сайте (не только для данного раздела).
Посадочные - страницы других разделов сайта. Для данного раздела посадочная - только страница с формой поиска. То есть убирать страницы можно вообще не парясь. Однако нужно их оставить доступными для пользователей, в том числе и для незарегистрированных.---------- Добавлено 17.11.2019 в 16:49 ----------
Страниц с результатами поиска в индексе нет и ссылки на них гуглу не доступны (кроме как через гугл аналитикс). Но [почти] все страницы материалов, по которым делается поиск, - на данный момент доступны индексированию и известны гуглу. Вот речь о том, как их правильно убрать. Единственно что я понимаю, что через robots.txt - точно нельзя.
Я пока вписал им meta noindex. Но вот думаю может лучше на них отдавать 403 или 404 тем у кого нет куки.
Всего страниц в разделе который нужно убрать около 350000 Гугл скачивает краулером в день именно из этого раздела (данные из анализа логов) обычно по 10000 страниц, иногда по 20000, но скачивает неравномерно многие скачивает повторно с интервалом 5-10 дней.
Интересно, чем ОВХ лучше Хетцнера. Оба лоукосты но Хетцнер дешевле. Значит должны быть какие-то преимущества.
По дате. Давно это было сейчас не нагуглю. Но был список дат, и у меня дата уменьшения трафика совпала с этим списком.
Вот не надо относиться ко всем сайтам в интернете, как к трафикособирающим статейникам. Это поисковая система по определенному материалу. Людям нужная функция - именно поиск. Но после поиска желательно иметь возможность материал просмотреть. Там не весь материал старый, есть и новый но тоже копированный, но старый тоже нужен. Изменять ничего нельзя - тогда смысл вообще пропадет. Можно дополнять дополнительными данными и как-то за счет этого "уникализировать" но так я делал бы если бы это был бы коммерческий проект. Для некоммерческого овчинка выделки не стоит.
Потому варианты такие:
1. meta noindex
2. 403
3. 404 с клоакингом
4. Ничего не делать
ТСу нужно держать кратковременные пиковые нагрузки. Для этого неправильно выкупать гарантированную производительность на постоянку. Как правило для целей ТС не подходит VDS, но подходит шаред при адекватном хостере.
Если у вас вопрос чисто теоретический то ответ "могут но не должны". Если у вас вопрос практический - то открывайте консоль и смотрите.