Как я понимаю их больше 30 000 сейчас уже спаршено и полностью настроено под выгрузку в соц сети + они обновляются.
Но что-то дорабатывается ручками при выгрузке специалистами парсера в первый раз как я понимаю и все.
Для того, кто может это реализовать, беглого взгляда достаточно, чтобы понять масштаб задачи и справится или нет. Для того, кто не в теме какой смысл писать ТЗ, если я сам не сильно в теме, о чем написал ьтак же сразу.
Если человеку сложно посмотреть на сайт, на котором все максимально лаконично написано и разжевано специалистами, владеющими конкретным работающим продуктом, то думаете ему будет быстрее и проще почитать на досуге многостраничное ТЗ?---------- Добавлено 10.06.2018 в 18:54 ----------
Никто из поставщиков ничего не делает. Все делают работники парсера. И парсить могут без всяких договоренностей.
А зачем обсуждать этот вопрос вообще в рамках этой темы? Какое отношение к созданию парсера он имеет. Обсуждать такие вопросы точно будет не программист.
Не правильно. Копирайт там был.---------- Добавлено 10.06.2018 в 18:18 ----------
Я дал ссылку на сайт, который является именно тем, что мне нужно сделать. На сайте умные люди уже пару лет как максимально подробно все описали и видео даже сняли https://turboparser.ru/about/kak-nachat-polzovatsya
Если у вас всех, кто пишет всякую чепуху, не хватило времени зайти на сайт, котогрый я сразу показал и прочитать что это такое, но хватает времени написать всякий бред от нечего делать про 100 рублей и т.п., ну что тут скажешь? На таких форумах 90% ванг и "экспертов". Можно бы было просто промолчать.---------- Добавлено 10.06.2018 в 18:21 ----------
https://turboparser.ru/about/kak-nachat-polzovatsya Вот этот невозможный парсер. Его донастраивают под каждый сайт но это парсер который реализован. И таких десяток уже существует, просто этот самый хороший на мой взгляд.
Да вот и хочется без изобретений многомиллионных обойтись. Сам думаю, что стоит взять что-то уже готовое и программиста нанять и пусть мучается. Может выйдет что или по крайней мере пойму где подводные камни и что это вообще такое.---------- Добавлено 09.06.2018 в 11:37 ----------
Вы очень правильно говорите, но я за 15 уже лет занятия бизнесом ни разу не имел четкого бизнес плана и т.п. И знаю, что многие или большинство предпринимателей такие же. То есть сделал получилось - хорошо. Нет, сломал и еще раз или новое. Я не технарь вообще ни разу. Мало того, что не представляю как делать все по пунктам, мне еще это и неприятно, так как если бы я так делал мне бы стало скучно и смысл вообще чем-то заниматься, если тебе это не нравится? Поэтому у меня метод научного тыка преобладает.---------- Добавлено 09.06.2018 в 11:44 ----------
А вы хоть поняли суть проекта? К этим парсерам владельцы сайтов сами обращаются, чтобы их спарсили. И деньги за это ежемесячно еще платят.
Вы понимаете, вот такого рода ответы мне как раз и не нужны. Из своего опыта - сайты с посещалкой в десятки тысяч может сделать школьник, нанявший еще одного двух школьников за пару сотен рублей в день.
Мой сайт самый большой с посещанкой 300+ тыс уников в сутки (сейчас не работающий уже) когда-то был сделан дешевле чем за миллион. Поэтому я вот эти 100 миллионов триллионов долларов воспринимаю как спам, извините.
Так же и парсеры. В студии Артемия Лебедева делают и хорошие вещи и откровенное говно, но все за миллионы. То же самое делают дешево те, кто потрудились сами найти команду.---------- Добавлено 08.06.2018 в 23:39 ----------
Я очень плохо разбираюсь с тем, что уже есть на рынке. Другие парсеры, которые я видел, не уверен что будут решать мои задачи без доработки.---------- Добавлено 08.06.2018 в 23:41 ----------
В социалки заливатся все должно через виджет, удобно и с настройкой параметров заливки. Поэтому и говорю, что дети не сделают. Это все уже реализовано, мне нужно скопировать грамотно у конкурентов.
В роботсе запретил индексацию этих эксель таблиц. Надеюсь поможет.
У меня эксель табличка с доменами подгружается. В ней ссылки на другие сайты, она вся из ссылок. Она воспринемается страницей поисковиками? И эти ссылки внешние учитываются как-то?
Не знаю насчет меньшего веса, я что-то когда вижу статью по запросу, так у нее урл со 100% вхождением обычно, если трафиковая. Тоже думаю делать ссылки без ключа, который в домене не дублировать.
Добрый день. Давно не делал сайты. Сейчас запустил несколько на вордпрессе и оставил для индексации только нужные страницы и форум на IPB запустил. Вот думаю нужно в роботсе Disallow прописывать для кучи мусорных страниц форума или лучше не трогать?
Почему есть сомнения - потому, что раньше без этого форумы нормально индексировались, поисковики знают движок и думаю представляют что это такое. Вот думаю как бы хуже не наделать и может не торогать его?