摘要:随着 AI 技术的快速发展,越来越多的产品经理开始考虑转型为 AI 产品经理,但复杂的 AI 概念和技术术语往往让人望而却步。本文将为你梳理人工智能领域的基础概念,希望能帮到大家。
随着 AI 技术的快速发展,越来越多的产品经理开始考虑转型为 AI 产品经理,但复杂的 AI 概念和技术术语往往让人望而却步。本文将为你梳理人工智能领域的基础概念,希望能帮到大家。
你能正确区分它们之间的关联吗?
比如人工智能与机器学习、深度学习到底是什么关系?
深度学习与监督学习、无监督学习、强化学习,又是什么关系?
分类、回归、聚类、降维跟算法又有什么关系?
卷积神经网络(即CNN)跟循环神经网络(RNN)、对抗神经网络(GAN)有什么区别?
TensorFlow、PyTorch跟Bert、GPT是什么关系?GPT跟ChatGPT呢?
等等。
对于小白来说,单纯这些概念,足以让人眼花缭乱,目眩神怡,更不用说转型成为AI产品经理。
所以,今天就简单分享一些人工智能相关的基础概念——来自一位小白(即本人)的学习总结。
三代不同技术路线:专家系统、机器学习、深度学习专家系统跟机器学习是人工智能的“两个儿子”(即它们属于“兄弟俩”),而深度学习是机器学习的“儿子”。
人工智能早期,因数据、算力、技术等局限性,让专家系统这类以人工编码规则和逻辑的技术路线,受到大家的“万千宠爱”,而机器学习则一直“备受冷落”。
直至深度学习这个“儿子”在2010年前后的突然爆发,才让这个分支,成为了人工智能领域的“掌上明珠”。
当深度学习成为人工智能领域,集万千宠爱于一身的“掌上明珠”后,所有的不同概念就不约而同地进入到了我们的日常生活中。
我把它们从不同维度、不同作用进行分类,以便于让你更好理解——假设你是AI小白的话。
咱们先说模型——它相当于人工智能的“大脑”。
深度学习的基础是模仿人类的大脑,而大脑的核心是神经网络,它是由1700多亿个神经元所组成。如前文《如何转型为AI产品经理?思维篇》所分享的赫布学习理论所说:当一个神经元(前突触细胞)持续或重复刺激另一个神经元(后突触细胞)时,两个神经元之间的传递效能增加,形成一个细胞回路,大脑就会记住这两个事物之间的联系,我们也就学会了。
简单来说,你的大脑(即神经网络)就是你学习、决策与行动的模型,而人工智能也有自己的“大脑”(即模型)。
目前深度学习领域的有“模型四兄弟”(即卷积神经网络(即CNN)跟循环神经网络(RNN)、对抗神经网络(GAN)、自注意力机制(Transformer))。
它们出身各异,都有自己的“前世今生”,也有自己的局限性,甚至产生了兄弟之间的“手足自残”的状况(如Transformer代替RNN)。
目前国内市面上的大模型,几乎采取的模型都是Transformer,只是针对性的进行了调优或增强。比如文心一言是基于百度的ERNIE大模型技术,结合了Transformer架构和知识增强技术;通义千问是基于Transformer-XL进行改进支持多轮对话和多模态理解能力等。
第二,预训练模型——它相当于让人工智能的“大脑”提前完成了“预习”,我们可以叫它为“天才大脑”——即在出生时就自带大量知识。
2018年是预训练模型的井喷之年,我们目前所熟悉的预训练模型都发生在那年。它们是:ELMo(2018年2月)→ ULMFiT(2018年5月)→ GPT-1(2018年6月)→ BERT(2018年10月)→ GPT-2(2019)→ GPT-3(2020)。
它们都属于自然语言理解(NLP)领域的预训练模型,相当于提前把相关的知识进行了预先学习,让模型不只是“空壳”般的网络。
它们的演进逻辑是:静态词向量 → 动态上下文(ELMo) → 迁移学习(ULMFiT) → 生成式预训练(GPT) → 双向理解(BERT) → 大模型时代(GPT-3)→ 模型规模持续扩大(如GPT-4)→ 多模态融合(文本+图像+语音,如GPT 4o)。
比如ELMo引入了上下文词向量,ULMFiT推动了迁移学习在NLP中的应用,GPT展示了自回归预训练的潜力,BERT通过双向Transformer和掩码任务取得了突破,而GPT-3则展示了大规模模型的强大生成能力。
第三,学习范式——它是人工智能的学习模式或方法,类比于你用什么样的方式方法进行学习。
人工智能领域主要有四种学习范式:监督学习、无监督学习、半监督学习、强化学习。
它们的演进脉络是:从规则驱动(专家系统)→ 监督学习(数据驱动)→ 无监督/强化学习(探索自主性)→ 混合范式(半监督、自监督)。
比如专家系统是依赖人类专家,提前预设所有规则,监督学习则是以标记数据进行驱动学习,无监督学习是不依赖标记数据,自主进行聚类/降维分析,半监督学习则是依赖少部分标记数据和大量未标记数据学习,强化学习是通过行为的奖励或惩罚进行自主学习等。
第四,任务类型——它是人工智能要解决的问题类型,类比于你学习的目的是要解决哪类问题。
人工智能领域的常见任务有四类:分类、回归、聚类、降维。其中分类和回归属于监督学习类,而聚类跟降低属于非监督学习类。
不同的任务类型对应不同应用场景,对应也有不同的算法来实现。
比如区分不同的图像(即图像分类),看它是小猫,还是小狗,则任务类型就是分类;
或根据客户的基础信息、使用网站信息等,将客户进行细分后,对应进行定制化的营销活动推荐,则任务类型就是聚类。
第五,算法——它是人工智能用于解决问题的“工具”。
不同的任务需要不同的算法,就像你去干不同的活儿,也需要不同的工具组合一样。
比如分类任务,结果可能是离散的,则可采取的算法有:决策树、支持向量机(SVM)、随机森林等;
如果是聚类任务,则可采取的算法有:K均值、层次聚类等;
如果是回归任务,则可采取的算法有:线性回归、决策树回归等。
最后,框架——它是人工智能的“地基”。
你的模型、预训练模型、学习范式等,都依赖它作为你的基础,类比于你的日常工作,可能都需要用电脑一样。
我们常见的深度学习框架有两个:TensorFlow、PyTorch。
TensorFlow是由 Google 开发的开源深度学习框架,主要用于构建和训练神经网络模型。它支持分布式计算和大规模数据处理,适合工业级应用和大规模分布式训练。
PyTorch是Meta(即Facebook)开发的开源深度学习框架,以其动态计算图和灵活性著称,适合快速原型开发和学术研究。它有两个的关键子库:
TorchVision:专注于计算机视觉(即CV)任务,提供了丰富的数据集加载器、预处理工具和模型架构;TorchText:专注于自然语言处理(即NLP)任务,提供了文本数据的加载、预处理和分词等功能。同时,还有一个Hugging Face Transformers属于“样板间”,它是一个基于 PyTorch 和 TensorFlow 的自然语言处理库,提供了大量预训练模型(如 BERT、GPT、RoBERTa 等),支持多种 NLP 任务。
它通过封装 PyTorch 和 TensorFlow 的 API,简化了模型的加载、训练和部署过程,并支持跨框架的模型转换,以及提供了丰富的工具和接口,如 transformers 库,用于加载预训练模型并进行微调。
目前国内的大模型厂家,绝大多数都是基于PyTorch框架(如智谱清言、百川智能、云雀、DeepSeek等),或者兼容PyTorch框架(如通义千问),而只有极少数是完全自研(如文心一言是自研的PaddlePaddle)。
写在最后人工智能所涉及的名词、概念非常多,今天总结了一些比较常见且容易混淆的概念,希望对你有所启发。当然,由于我自身知识的局限,如有不正确之处,还请多多指教。
我们用几句话,简单总结今天所讲到的概念:
人工智能是一个大家族,专家系统跟机器学习是家族的“兄弟俩”,而深度学习是机器学习的“儿子”。人工智能的模型是“大脑”,分CNN、RNN、GAN、Transformer。现在主流AI产品,基本都采取的是Transformer模型。人工智能的预训练模型是“天才大脑”,让“大脑”在出生时,就自带大量的知识。比如ELMo、 ULMFiT、 GPT、BERT等,都属于预训练模型。人工智能的学习范式是“学习方法”,保证让“大脑”进行有效学习,成长为自主决策的“人”。比如监督学习、无监督学习、半监督学习、强化学习都是不同的学习方法而已。人工智能的目的是解决问题,而一般常见的有四类任务:分类、回归、聚合、降维。同时,它们又对应有N种不同的算法,负责解决问题。人工智能一般是需要有基础框架做“地基”的。比如TensorFlow/PyTorch都是深度学习的“地基”,而它们还提供了对应的“装修材料”(比如TorchVision/TorchText就是PyTorch的“装修材料”),以及对应装修完成的“样板间”(比如Hugging Face就是TensorFlow/PyTorch的“样板间”,提供了丰富的预训练模型以及API接口)。
邢小作,,人人都是产品经理专栏作家。一枚在线教育的产品,关注互联网教育,喜欢研究用户心理。
本文原创发布于人人都是产品经理。未经许可,禁止转载。
题图来自 Unsplash,基于CC0协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
来源:人人都是产品经理