公开笔记对他人可见,有机会被管理员评为“优质笔记”
{{ noteEditor.content.length }}/2000
基于YOLOv8模型的抽烟行为检测系统 1
基于YOLOv8模型的垃圾满溢检测.系统
基于YOLOv8模型的老虎目标检测系统
搭建私人助理大模型需要什么环境?
讲者在视频中指导如何搭建Streamlit环境,突出点在于使用Python语言进行开发,推荐使用Anaconda进行一站式环境配置,易于管理包和编辑器。强调Streamlit的安装非常简单,仅需使用pip进行安装无需复杂配置。此外,还推荐了几种集成开发环境(IDE)如PyCharm、VS Code,依据个人喜好选择。这项内容适合于已经对Python有一定了解的人群,尤其是有兴趣在数据科学和Web应用快速开发领域进步的开发人员。
人人都有自己的智能体!从0到1构建本地开源大语言模型智能体原理与实现
本次分享主要介绍了智能体的工作原理及其在技术实现中的应用。智能体被比喻为一个具有手脚和感官的完整人,能够根据大脑的指令执行任务。通过本地大语言模型,结合VLLN框架,智能体能够调用工具、进行搜索、执行代码,并具备记忆功能。分享中还讨论了智能体在解决问题时的行动决策过程,以及如何通过JSON格式与工具进行交互。此外,还演示了使用搜索引擎和AI绘画工具的实例,并最终展示了智能体执行任务的完整流程。这些内容适合对人工智能、自然语言处理和智能体设计感兴趣的技术人员学习。
还百度上搜数据集吗?记住这个地方啥数据都有!
在快速获取准确数据的需求日益逼切的背景下,传统搜索引擎和社交媒体平台常因广告和套路层出不穷而不尽人意。为解决业界数据紧缺和数字化人才的匹配问题,"cover"平台应运而生。该平台聚集了各行业积累的大量数据,积极搭建连接数字化需求与解决方案提供者之间的桥梁。通过提交数据并提供奖金激励,平台鼓励技术人员提供创新的解决方案。此外,平台不仅提供数据资源,还包含源码和完整的项目配套,为数据分析和项目开发提供了全方位的支撑。适合有志于数据分析、技术解决方案开发以及数字化转型领域的专业人士。
Python爬虫:Requests库的基本用法
本次内容聚焦于使用Python的requests库进行网页数据爬取。介绍了requests库作为一个无需转基因的HTTP库,在人类获取网页数据过程的适用性与便捷性。视频解释了如何安装库,以及如何使用GET方法来获取网页对象。其中,还包含了HTTP状态码的讲解,状态码帮助开发者识别HTTP请求的响应状态。强调了文本编码的重要性,在处理爬取到的文本数据时需设置合适的编码以避免乱码问题。此外,视频提供了通过requests库对网页文本信息提取的具体代码实例演示,旨在帮助开发者理解如何使用这一工具进行数据抓取。
大数据架构与生态圈01
视频内容聚焦于大数据技术的发展三个阶段,其中大数据1.0时代遍及2006-2009年,以Apache基金会建立的Hadoop开源项目和相关技术(如HDFS、MapReduce、HBase)为标志,主要解决大规模结构化数据批处理问题。2.0时代自2009年至2015年,以Spark为主流计算引擎,着重于结构化数据处理与多种流计算引擎的出现。而3.0时代则自2015年开始,注重非结构化数据处理、数据共享及解决数据孤岛问题,推进大数据与人工智能、云计算技术的融合。内容指出大数据技术依据不同行业需求有不同架构,并且强调技术的持续更新与业务适配性。