Гугл (алгоритмами) всегда отличался туповатостью, примитивностью и прямолинейностью (именно поэтому я его и предпочитаю в качестве поисковика). Клон, не обремененный никаким функционалом, как правило работает быстрее, часто значительно быстрее, часто оптимизирован значительно лучше... Поэтому не удивительно, что Гугл может его поднять выше оригинала. Осебенно это опасно для относительно новых интересных сайтов на каком-нибудь популярном тормозном движке (а клон часто на самописе сделан или вообще на голом хтмл). Поэтому повторюсь: если у вас интересный контентный проект, то надо заранее озаботиться оптимизацией, скоростью работы, дополнительными неклонируемыми сервисами и пр. В общем надо получить так или иначе фору по времени и функционалу, чтобы не подстрелили на взлете. Проблема, действительно, существует. Но не для старых трастовых оптимизированных сайтов.
С яндексом как раз проще. Во-первых, он значительно более активно учитывает реальное поведение посетителей, а во-вторых, с яндексом можно контактировать и при правильном обращении к нему такие тупые клоны (особенно дорообразные, с перенаправлением и клоакингом) не сложно закрыть.
Для простого клона сайта (и не более) я долгосрочных перспектив не вижу. Но временные неприятности он создать может. Поэтому я бы контентные сайты сопровождал какими-нибудь самостоятельно разработанными сервисами - их копипастеры не клонируют и всегда сразу видно, кто первоисточник, что должно сказаться на ПФ и прочем.
Но вот для молодых сайтов клоны являются серьезной проблемой. В качестве мер защиты я бы опять таки предложил внедрять трудно клонируемые сервисы и прочий функционал. Плюс к тому выбирать время запуска проекта. Например, я своё новое решение таки успел запустить за несколько часов до Нового года. И сейчас, когда охотники бухают, у меня минимум месяц временной форы.
По мне это ключевой момент. В яндексе хоть можно достучаться до живого человека. Можно даже позвонить и съездить и поговорить с живыми людьми. И даже не важно, что там будет в результате, важена сама по себе возможность контакта. А с гуглом - стена, глухая стена...
Что касается алгоритмов, то имхо алгоритмы гугла примитивней и проще алгоритмов яндекса, что дает гуглу... преимущество в скорости индексации, в объеме обрабатываемой информации и... как ни парадоксально... часто в качестве выдачи. Мои эксперименты с алгоритмами ИИ также показали мне, что чем проще, тем лучше - проще подкрутить, выдача прозрачная и понятная, в отличие от... Зря гугл и яндекс в сторону нейронных сетей смотреть стали...
Dram, а с чего вы взяли, что контент нельзя копипастить? Не в вашем конкретном случае (ваш то может быть и нельзя), а в общем случае? Да и если ваш контент действительно в полном смысле авторский, то даже его можно цитировать (в неопределенном объеме), копипастить в пародийных целях и т.д. Да и авторство заранее неизвестно и подлежит доказыванию. И как поступать поисковику? Лезть в эти разборки? Банить за копипаст? За новогоднее обращение президента тоже всех забанить? Это не выход. У меня есть сайт со 100% копипастом и этот копипаст на 100% законен. Так что яндекс правильно делает, что не рубит сгоряча.
Но если у вас сайт значительно старше и авторитетней клона, то мой опыт подсказывает, что в долгосрочной перспективе клон отвалится, если не начнет сам генерить инфу.
Тоже самое относится и к практически ВСЕМ текстам написанным по заказу профессиональными копирайтерами. Так называемый в СЕО-тусовке "копирайт" никаким копирайтом не является. Есть поверхностный рерайт и есть глубокий рерайт, но тоже рерайт, когда берется чужой материал и излагается полностью своими словами, но никаких новых смыслов при этом не привносится. Так что если с копипастом не всё однозначно, то с таким "копирайтом" всё ясно - в топку :).
И всё это лежит в одном php файле вместе с контентом, который правит пользователь? Я этого не понимаю. В чем логика такого решения? Почему контент не лежит как у всех в базе данных отдельно от кода?---------- Добавлено 31.12.2016 в 11:49 ----------
С этим, похоже, никто не спорит. Этот проект имхо изначально нацелен на создание среды по зарабатыванию, чем и привлекает разработчиков, руководителей и прочих желающих присосаться к освоению средств.
Aisamiery, Вот я сейчас смотрю на файл php-страницы ("контакты"), созданной в визуальном редакторе в Битриксе:
<?require($_SERVER["DOCUMENT_ROOT"]."/bitrix/header.php");$APPLICATION->SetTitle("абракадабра");?>некий текст...$<p align="justify">некий текст...$ <p align="justify">некий текст...$ <p align="justify">некий текст...$ <p align="justify">некий текст...$ <p>некий текст...$<?require($_SERVER["DOCUMENT_ROOT"]."/bitrix/footer.php");?>
Или вот что лежит в папке Catalog:
<?require($_SERVER["DOCUMENT_ROOT"]."/bitrix/header.php");$APPLICATION->SetTitle("абракадабра");?> <p align="left"><?$APPLICATION->IncludeComponent("bitrix:catalog", "catalog", array( "IBLOCK_TYPE" => "xmlcatalog", "IBLOCK_ID" => "10", "BASKET_URL" => "/personal/cart/", "ACTION_VARIABLE" => "action", "PRODUCT_ID_VARIABLE" => "id", "SECTION_ID_VARIABLE" => "SECTION_ID", "PRODUCT_QUANTITY_VARIABLE" => "quantity", "PRODUCT_PROPS_VARIABLE" => "prop", "SEF_MODE" => "N", "SEF_FOLDER" => "/catalog/", "AJAX_MODE" => "N", "AJAX_OPTION_JUMP" => "Y", "AJAX_OPTION_STYLE" => "Y", "AJAX_OPTION_HISTORY" => "Y", "CACHE_TYPE" => "A", "CACHE_TIME" => "3600", "CACHE_FILTER" => "N", "CACHE_GROUPS" => "Y", "SET_TITLE" => "Y", "SET_STATUS_404" => "N", "USE_ELEMENT_COUNTER" => "Y", "USE_FILTER" => "N", "USE_REVIEW" => "N", "USE_COMPARE" => "N", "PRICE_CODE" => array( 0 => "RETAIL", ), "USE_PRICE_COUNT" => "N", "SHOW_PRICE_COUNT" => "1", "PRICE_VAT_INCLUDE" => "Y", "PRICE_VAT_SHOW_VALUE" => "N", "PRODUCT_PROPERTIES" => array( ), "USE_PRODUCT_QUANTITY" => "Y", "CONVERT_CURRENCY" => "N", "QUANTITY_FLOAT" => "N", "SHOW_TOP_ELEMENTS" => "N", "SECTION_COUNT_ELEMENTS" => "Y", "SECTION_TOP_DEPTH" => "2", "PAGE_ELEMENT_COUNT" => "300", "LINE_ELEMENT_COUNT" => "1", "ELEMENT_SORT_FIELD" => "sort", "ELEMENT_SORT_ORDER" => "asc", "LIST_PROPERTY_CODE" => array( 0 => "NUMBER", 1 => "ARTICUL", 2 => "PARAM", 3 => "", ), "INCLUDE_SUBSECTIONS" => "N", "LIST_META_KEYWORDS" => "-", "LIST_META_DESCRIPTION" => "-", "LIST_BROWSER_TITLE" => "-", "DETAIL_PROPERTY_CODE" => array( 0 => "NUMBER", 1 => "ARTICUL", 2 => "PARAM", 3 => "", ), "INCLUDE_SUBSECTIONS" => "N", "LIST_META_KEYWORDS" => "-", "LIST_META_DESCRIPTION" => "-", "LIST_BROWSER_TITLE" => "-", "DETAIL_PROPERTY_CODE" => array( 0 => "NUMBER", 1 => "ARTICUL", 2 => "PARAM", 3 => "", ), "DETAIL_META_KEYWORDS" => "-", "DETAIL_META_DESCRIPTION" => "-", "DETAIL_BROWSER_TITLE" => "-", "LINK_IBLOCK_TYPE" => "", "LINK_IBLOCK_ID" => "", "LINK_PROPERTY_SID" => "", "LINK_ELEMENTS_URL" => "link.php?PARENT_ELEMENT_ID=#ELEMENT_ID#", "USE_ALSO_BUY" => "N", "USE_STORE" => "N", "DISPLAY_TOP_PAGER" => "N", "DISPLAY_BOTTOM_PAGER" => "Y", "PAGER_TITLE" => "абракадабра, "PAGER_SHOW_ALWAYS" => "N", "PAGER_TEMPLATE" => "", "PAGER_DESC_NUMBERING" => "N", "PAGER_DESC_NUMBERING_CACHE_TIME" => "36000", "PAGER_SHOW_ALL" => "Y", "AJAX_OPTION_ADDITIONAL" => "", "VARIABLE_ALIASES" => array( "SECTION_ID" => "SECTION_ID", "ELEMENT_ID" => "ELEMENT_ID", ) ), false);?> <br /> </p> <script>$(function(){ history.pushState(null, null, "<?=$APPLICATION->GetCurPageParam("", array("quantity"))?>");}); </script> <?require($_SERVER["DOCUMENT_ROOT"]."/bitrix/footer.php");?>
Эти php-файлы генерятся и потом работают в результате шевеления мышкой секретаршей или еще каким контент-менеджером...
Мой мозг отказывается понимать такую архитектуру смеси контента и логики, причем в исполняемом файле, причем генерируемой не программистом, а пользователем. Я знаю Битрикс очень поверхностно, но мой мозг отказывается понимать это и нет никакого желания углубляться. Я даже сначала не поверил своим глазам, что такое возможно, да и до сих пор не верю, хотя вот он код - передо мной лежит...
Т.е. для того, чтобы получить простую возможность автоматического ресайза превьюшек при загрузке, надо нанимать программиста. Да не абы какого, а высококвалифицированного, т.е. дорогого. Если желаете, чтобы клиент смог добавлять товар с указанием количества не только из карточки товара, а сразу из списка товаров, то опять надо нанимать высококвалифицированного программиста, т.к. штатной такой возможности "из коробки" нет. Т.е. за каждую вроде бы элементарную вещь надо платить.---------- Добавлено 30.12.2016 в 18:52 ----------Но самая по моему несуразная вещь там - это визуальный редактор контента и настроек. Обыватель им пользоваться априори не сможет, а разработчику он нафик не нужен.
Я тоже несколько раз (правда не глубоко) сталкивался с Битриксом и впечатления были отрицательными. Ужасная структура каталогов (какая то дикая смесь из файловых папок и БД, причем и данные и настройки сваливаются в кучу - в один файл страницы). Не было автоматического ресайза превьюшек из коробки. Не было возможности указать количество товара и добавить в корзину из списка товаров - приглашали программиста по битриксу. Наименования методов, да и сами методы выглядят громоздко. В визуальном редакторе везде ощущается громоздкость, да и всё смешано - и контент и настройки. Не знаю, возможно сейчас там многое поменялось, но впечатления были отвратными.
Если речь именно о фреймворке, то имхо это далеко не лучший выбор.
Да и платное там всё: модули в большинстве платные, ежегодная поддержка платная, т.е. каждый год надо продлевать лицензию и т.д.
Битрикс хорош как среда для заработка, освоения средств и подобного.
Какой нафик пхп? У вас основная проблема - сбор статистики по регионам, странам, городам... с учетом кучи факторов. Потом анализ этой статистики, выявление закономерностей, путем прогона через алгоритмы искуственного интеллекта.
Если вас не смущают подобные формулы:
То берете Питон с математическими и научными библиотеками, включая реализации алгоритмов ИИ, и вперед...
Забейте. Если речь идет о полноценном сервисе с нуля, а не о готовом каком-нибудь информере, то очень дорого.