数据隐私如何促进创新
在Keywords Studios,我们发现人工智能应用中的一个反直觉的现象:安全控制非但不会限制创新,反而能够促进创新。这一见解源于我们面临的一个典型的企业挑战。

2024年一整年,我们的员工都在尝试使用ChatGPT等公共人工智能工具。但是,他们非常谨慎,并严格遵守我们的内部人工智能和安全政策。根据我们的数据安全协议,他们对使用进行了自我审查,仅限于执行安全但价值较低的任务。因此,真正的生产力提升仍然难以实现。
这一现象与Gartner的分析相吻合。Gartner的分析显示,到2026年,70%采用对话式人工智能的组织将需要负责任的人工智能实践和技术,而这一比例在2023年还不到10%。我们的经验正好解释了其中的原因:强大的安全控制不仅可以保护数据,还可以促进人工智能的应用。
最初,我们尝试了主要提供商的企业级产品,但直到2024年夏季,这些产品仍在不断完善之中,缺乏试用选项,而且要求承诺至少购买500 个席位。我们陷入了一个两难的境地:要证明业务价值以证明企业投资的合理性,但又无法在没有安全保障的免费版本上测试真实的业务用例。
我们的解决方案是使用AWS Bedrock (AWS) 作为后端,LibreChat作为前端,创建一个安全的试用环境。这种方法在保障了安全性的同时兼顾了灵活性,同时将机器学习操作 (MLOps) 的核心职责转移给AWS。我们的团队首次能够在内部安全地测试人工智能,集思广益制定业务计划、分析专有代码、探索大型数据集、总结会议记录等等。
这一解决方案的效果立竿见影。随着对系统的信任度不断提高,创新也随之蓬勃发展。现在,我们每天都会收到公司各个团队的访问请求,大家都迫切希望探索安全的LLM访问如何提高工作满意度和生产力。
实施策略
第一步是通过聊天界面提供对最先进基础模型的安全访问。在试点期间,我们提供了Llama 3.2、Claude 3.5 Sonnet、Mistral Large等领先模型。尽管这些模型得到了广泛应用并进行试验,但每位员工的令牌使用量仍低于预期。我们发现,主要的成本动因并非人工智能的使用,而是系统维护。对于像Keywords这样规模的公司而言,维护成本分摊到成千上万的用户身上后,我们能够以每位用户每月不到10美元的成本提供安全的聊天机器人服务。
第二步是专注于构建基础RAG系统,利用数据减少幻觉。虽然这项工作主要使用AWS,但Keywords Studios作为一个拥有多云环境的公司,可针对各个团队和工作室的安全需求进行优化。
展望未来,我们正在探索高级RAG架构,以提高答案质量,GraphRAG是我们的下一个关注重点。我们还开始着手研究针对特定领域用例的LLM微调。
我们并不寻求单一的解决方案,而是跨平台构建专业知识,以便自信地为每项工作部署合适的工具。您的选择将取决于您的规模和需求,但无论您是选择企业级SaaS服务,还是自行构建系统,部署一个安全的聊天机器人都将带来免费服务无法实现的创新突破。
立即开始利用人工智能。请通过以下方式与我们的团队联系。