ai的专业术语

想了解人工智能,不用被一堆专业名词绕晕。下面这些,是日常学习、工作里高频实用、通俗易懂的基础AI词汇,不讲复杂公式原理,只用简单例子讲清含义与用法,轻松看懂大模型、提示词、微调、多模态等主流概念,快速建立理解认知、看懂各类AI工具底层逻辑。
关于ai的专业术语

一、基础概念

  • AI (Artificial Intelligence,人工智能):让机器模仿人类的思考、判断和学习能力。
  • AGI (Artificial General Intelligence,通用人工智能):拥有和人类相近的综合智能,能灵活应对各种未知任务,是目前AI研究的终极目标。
  • ML (Machine Learning,机器学习):不用一条条写死规则,让机器从数据里自己总结规律(算法)。
  • DL (Deep Learning,深度学习):机器学习的一种,靠多层神经网络 (Neural Networks) 实现更强的理解和生成能力,也是现在大模型的核心技术。
  • NLP (Natural Language Processing,自然语言处理):让AI看懂、听懂、会说人类语言。
  • CV (Computer Vision,计算机视觉):让AI像人一样“看懂”图片和视频。

二、大模型与训练

  • LLM (Large Language Model,大语言模型):能写文章、聊天、答问题的大型语言AI,基于海量数据训练。
  • Pre-training Model (预训练模型):先在海量数据里学习通用知识,打下基础能力(类似“通识教育”)。
  • Fine-tuning (微调):在通用模型的基础上,用特定数据再训练,让它更适合某个垂直场景(类似“专业进修”)。
  • Prompt (提示词):我们给AI的指令或问题,直接影响输出效果。
  • Token:AI处理文字的最小单位(一个汉字约等于1.5-2个Token,一个英文单词约等于1-1.5个Token),用来计算长度和成本。
  • Parameters (参数):可以理解为模型学到的“知识量”,通常以亿或万亿为单位,参数越多,能力通常越强。
  • Alignment (对齐):让AI的输出更安全、更符合人的意图和价值观。
  • Context Window (上下文窗口):模型一次能“记住”并处理的最大信息量(如输入+输出的总长度)。
  • RLHF (Reinforcement Learning from Human Feedback,人类反馈强化学习):一种重要的对齐技术,通过人类打分来教模型什么是“好”的回答。

三、模型结构

  • Transformer:目前绝大多数大模型都在用的核心架构,基于自注意力机制 (Self-Attention Mechanism)
  • Encoder (编码器):负责理解、分析输入的内容(如BERT模型)。
  • Decoder (解码器):负责生成、输出结果(如GPT系列模型)。
  • CNN (Convolutional Neural Network,卷积神经网络):早期常用于图像处理的结构。
  • RNN (Recurrent Neural Network,循环神经网络):早期常用于处理序列数据的结构,现多被Transformer取代。
  • MoE (Mixture of Experts,混合专家模型):一种高效架构,将大任务拆解给多个“专家”子网络处理,提升效率。

四、生成式 AI

  • AIGC (AI Generated Content,AI生成内容):用AI自动创作文字、图片、音频、视频等内容。
  • TTS (Text-to-Speech,文本转语音):把文字变成真人般的朗读声音。
  • ASR (Automatic Speech Recognition,语音识别):把语音转成文字。
  • 文生图 / 文生视频:输入文字描述,AI直接画出图片或生成视频。
  • Diffusion Model (扩散模型):现在主流AI绘画工具(如Midjourney, Stable Diffusion)的底层技术,通过“去噪”过程生成图像。
  • GAN (Generative Adversarial Network,生成对抗网络):由生成器和判别器互相博弈学习的模型,早期图像生成的主流技术。

五、应用与智能体

  • AI Agent (AI智能体):可以自主思考、规划并主动调用工具完成任务的AI。
  • Tool Use / Function Calling (工具调用/函数调用):让AI联网、查资料、用计算器、写代码等,扩展其能力边界。
  • RAG (Retrieval-Augmented Generation,检索增强生成):外挂知识库技术。先从外部数据库查找相关信息,再结合问题给出更准确的回答,解决知识滞后问题。
  • Vector Embedding (向量嵌入/向量化):把文字、图片转成一串数字(向量),方便计算机进行语义检索和匹配。
  • Knowledge Graph (知识图谱):用结构化的方式(实体与关系)储存和展示知识。
  • CoT (Chain of Thought,思维链):引导AI展示“一步步的思考过程”,从而提高解决复杂逻辑问题的能力。

六、效果与常见问题

  • Hallucination (幻觉):AI一本正经地编造不存在的事实或数据,是目前主要痛点。
  • Overfitting (过拟合):模型太“死记硬背”训练数据,换到新场景就不好用(泛化能力差)。
  • Inference (推理):模型训练完成后,实际运行、处理用户请求并给出结果的过程。
  • Underfitting (欠拟合):模型连训练数据都没学好,表现不佳。
  • Temperature (温度值):控制模型输出随机性的参数。温度越高,回答越有创意但也越不稳定;温度越低,回答越严谨确定。

七、规范与安全

  • Bias (偏见):AI从数据里学到的歧视或不公平倾向(如性别、种族偏见)。
  • Safety Guardrails (安全护栏):为了防止AI输出有害内容而设置的规则和过滤机制。
  • Deepfake (深度伪造):利用AI技术合成逼真的假人脸、假声音或假视频,常用于诈骗或造谣。
  • Data Privacy (数据隐私):关注用户数据在训练和使用过程中是否被泄露。
© 版权声明

相关文章

暂无评论

none
暂无评论...