时间:2024-03-01|浏览:265
到目前为止,世界上大多数企业已经意识到生成式人工智能将继续存在,他们应该至少在一定程度上使用它来进行运营。
但如何以安全可靠的方式做到这一点,并实现“人工智能治理”(该术语用于跟踪组织内的人工智能部署和数据使用情况)?
总部位于纽约市和比利时布鲁塞尔的数据治理公司 Collibra 正在推出专门为解决这一问题而量身定制的新解决方案。
Collibra 联合创始人兼首席执行官 Felix Van de Maele 在独家视频通话采访中表示:“人们一致认为,人工智能正在成为几乎每个组织的关注焦点,但每个组织都明白他们需要以正确的方式开发人工智能。”与 VentureBeat 合作。
今天发布的新产品 Collibra AI Governance 有望通过确保部署的安全性、效率和可信性来重新定义组织实施 AI 的方式。
VB事件
AI 影响之旅 – 纽约
我们将于 2 月 29 日在纽约与微软合作,讨论如何平衡人工智能应用的风险和回报。 请求邀请参加以下独家活动。
请求邀请
弥合组织技术和政策之间的差距
它作为 Collibra 数据智能平台的一个组成部分而开发,旨在弥合数据、人工智能和法律合规性之间的关键差距。
它使这些领域的团队能够有效协作,确保人工智能项目符合法律和隐私要求,最大限度地降低数据风险,并提高模型性能和投资回报 (ROI),从而加快从概念到生产的过程。
Van de Maele 告诉 VentureBeat,它还通过在整个人工智能采用过程中的每一步为组织提供帮助,从“构思到交易到模型开发,到实际投入生产并持续监控”。
“这一切都是关于‘如何在整个生命周期中支持整个人工智能用例?’”
这不仅适用于一种人工智能解决方案或平台,还适用于任何给定组织使用人工智能的所有方式。
Collibra AI Governance 的独特之处在于提供对 AI 项目的直观管理和监控,确保敏感数据保护,并提高对 AI 用例的透明度和理解。
“最大的挑战是确保整个组织真正了解谁在做什么以及具体如何做,”Van de Maele 说。
“这不仅仅是文档。
这也是工作流程……确保事情以正确的方式完成。”
它通过与客户现有的 Collibra 数据管理产品(包括 Collibra 数据目录、Collibra 数据质量和可观察性、Collibra 数据隐私和 Collibra Protect)集成来实现这一目标。
风险管理和缓解的新方法
IDC 最近的一项调查结果强调了强有力的人工智能治理的必要性,该调查显示,虽然 71% 的公司已经在利用人工智能,但其成功实施的道路上充满了潜在的陷阱。
从模型偏差和不准确到法律和道德难题,挑战很多,对组织的声誉和财务健康构成重大风险。
只要看看自从用户开始批评其 Gemini AI 模型产生种族混乱的图像和哲学上怪异的反应以来,谷歌的声誉甚至其股票估值是如何受到影响的。
Collibra 的人工智能治理解决方案经过精心设计,通过提供全面的人工智能治理框架来减轻这些风险。
这包括简化的合规流程、风险缓解策略以及提高模型性能和投资回报率的机制。
通过建立一个统一的平台来管理人工智能和底层数据,Collibra 旨在消除围绕人工智能采用的担忧。
所有这些都作为 Collibra 现有数据智能平台的“附加”模块包含在内。
Collibra 首席产品官 Laura Sellers 在一份新闻稿中发表声明,强调了该产品的价值主张,并指出,由于担心人工智能的不可预测性和潜在的不良结果,组织普遍希望优先考虑人工智能。
“借助 Collibra AI Governance,我们提供了一个统一的平台来管理 AI 以及通过自动化工作流程、流程和策略驱动 AI 的数据,从而提供可信的服务,从而帮助消除 CIO、CDO、数据领导者和法律团队的担忧。整个组织的人工智能,”塞勒斯说。
来自更广泛的企业软件领域关键人物的认可
行业领导者正在进一步验证和认可 Collibra 的新产品。
SAP SE 营销和解决方案、数据和分析高级副总裁 Dan Yu 称赞 Collibra AI Governance 具有确保跨组织道德和负责任地使用 AI 的潜力。
Collibra AI 治理将于 2024 年 3 月 11 日至 13 日在佛罗里达州奥兰多举行的 Gartner 数据与分析峰会上进行展示。
通过解决人工智能项目带来的复杂挑战,Collibra 提供的不仅仅是一款产品,更是对强大且有原则的人工智能的承诺。
用戶喜愛的交易所
已有账号登陆后会弹出下载