数据和系统方面的进步推动了 DBMS 技术领域的以下进步。
生成式人工智能
生成式人工智能可用于:
根据自然语言指令改进数据库创建和模式设计
优化和调试查询
对底层数据进行复杂建模
根据 DBMS 输出生成人类可读的报告
在保持数据完整性的前提下,根据识别出的效率指标自动重新配置底层数据存储
您无需编写脚本,即可使用自然语言构造查询语句,再由人工智能模型自动将其转换为对应的查询语言。
向量数据库
向量数据库在大语言模型(LLM)定制 [(称为检索增强生成(RAG)] 领域的应用日益普及。通过向 LLM 添加向量数据库,企业能快速将自有知识库集成到现有大语言模型中。在 RAG 架构中,向量化技术能更高效地识别相似词句间的关联,从而提升模型输出结果的准确性与相关性。
目前已出现多款专用向量数据库产品。此外,部分传统数据库也在现有架构中集成了向量数据类型。
其中,Amazon Aurora PostgreSQL 兼容版本与 Amazon RDS for PostgreSQL 均支持 pgvector 扩展插件。Amazon Neptune、Amazon MemoryDB、Amazon DocumentDB 等其他 AWS 数据库产品,也可提供向量相似性搜索的托管解决方案。
代理式人工智能与模型上下文协议(MCP)服务器
代理式人工智能将特定工具和资源与生成式人工智能功能相结合,用以执行特定任务或扮演特定角色。人工智能代理之间可相互协作完成协调任务,其运作模式如同各司其职的工作团队。这就需要对代理状态、目标与决策过程进行系统管理。
在该技术平台中,模型上下文协议(MCP)服务器充当人工智能代理的协调中枢,负责管理多重资源。面向数据库服务的 MCP 服务器能轻松实现人工智能应用程序和代理与数据来源和服务的集成。在代理式人工智能系统中,MCP 服务器负责编排自主人工智能代理与关联数据库之间的交互流程,确保数据流与处理过程的高效运行。
代理式人工智能和 MCP 服务器需要数据库提供可扩展且可靠的基础设施,能够同时处理来自多个自主代理的状态管理、复杂查询和数据处理需求。当数据库以 MCP 服务器形式集成时,可帮助企业在基础设施内部,同时为传统数据库操作与代理式人工智能交互维持一致的性能、安全性和可靠性保障。
多种数据库服务都可以与 MCP 服务器集成,使人工智能代理和应用程序能够通过自然语言查询或编程接口与数据来源交互。MCP 服务器作为中间层,将人工智能模型的请求转译为恰当的数据库操作与查询指令。
零 ETL 集成
零 ETL 指省去传统数据处理中的“提取-转换-加载”三个核心环节,这三个环节原本用于将数据迁移、清洗并整合到数据库中。与之相对,在零 ETL 模式下,数据可实现即时复制与快速摄取。
借助零 ETL 技术,能够对流式事务数据执行近实时查询,或者快速组合多种类型的数据库以用于机器学习操作。
部署选项
数据库和 DBMS 所采用的基础设施及部署方式,对数据处理的速度、可扩展性、可用性、成本以及易用性都至关重要。这些选项包括本地部署、云部署、边缘部署、容器化部署、无服务器部署以及混合部署等。
大型国际数据库业务可能会选择容器化的分布式部署配置,制造行业业务则可能选择边缘部署与云部署相结合的方式。例如,为有效应对高流量负载,Biblica 已将其 Microsoft SQL Server 迁移到 AWS。