- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ничего не надо делать
единственное лимит времени, чтобы снимался (почти везде есть) + curl (вообще везде должен быть)
В каких кругах?
у школьников.. заработать в интернет, сео.. найти, кто накликиванием зарабатывает уже сложно, все делают свои сайты.
Для некоторых скриптов еще базу нужно создать, куча модулей PHP установить, даунгрейднуть/обновить PHP, и прочая ерунда.
Это у тебя, как разработчика, могут возникать подобные проблемы. Большинство же юзеров даже не подозревают о существовании "каких-то там" модулей PHP, не то что об их установке-настройке. Максимальные трудности - создать БД (сложно, до не могу :)). А при каких-то проблемах (аля: не получает данные с другого сайта) - вопрос к хостеру и хостер всё решат :)
Как-то так в общем случае.
А в данном конкретном TF-Studio ответил (я так и подозревал, что ничего мало-мальски сложного быть не может).
20 строчек кода ))
открыли, регуляркой прогнали, в массив засунули, в конце array_unique и в файл )
Это - простая версия, для более качественной, нужна БД.
Для хистори, более глубокого анализа, распределения нагрузки
для более качественной, нужна БД.
Дело, конечно, хозяйское, но я так не думаю :) Максимум - файлы со временем сканирования в имени (sitemap15-09-2013-22-45.txt(\csv\html\etc)) или первой строкой.
более глубокого анализа, распределения нагрузки
Это ты сейчас о сайтмапе? ;)
агамс, я люблю заранее закладывать масштабирование и перспективы.
БД нужна, для более быстрой и удобной проверки "проверяли эту страницу или нет".
Хотя можно и на файлах решить, в принципе, но БД привычнее.
для более быстрой и удобной проверки "проверяли эту страницу или нет".
Я наверное чего-то не понимаю.. смысла обладания этими знаниями не вижу. Вот если бы ответ сервера проверять, или там историю-динамику создания\умирания страниц исследовать(хотя зачем?) - тогда да. Но при генерации карты сайты... По сути-то разовой "акции". Ну т.е. разового результата (в см "достижение цели").
...
Пока писал кацца начал понимать ;) Ты имеешь ввиду проверять на дубли во время составления сайтмапа? Ааа, ну тогда да. БД на больших сайтах будет побыстрее (наверное). А я-то в начале подумал про более долгосрочные перспективы :)
Как "бредовая" идея
Сделать апи. Что бы я напрмиер смог с своему сервису прицепить ваш скрипт, при этом не скачивая аго, а просто тремя строчками кода + нагрузка на мой сервак не идет. Понятно, что не бесплатно :)
Если сайт очень большой, то чтобы не было утечек (расхода) памяти не нужных, стоит хранить где-то промежуточные результаты.
БД оптимальный вариант (memcache ещё и аналоги).
Просто лазать по 1 странице несколько раз не рационально.
bay_ebook, все обсуждаемо в этой жизни )
Просто лазать по 1 странице несколько раз не рационально
с выдачи поисковиков берите