Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 5|回復: 0

这可以通过开发自己的解决方案

[複製鏈接]

1

主題

1

帖子

7

積分

新手上路

Rank: 1

積分
7
發表於 2024-2-11 19:31:41 | 顯示全部樓層 |閱讀模式
来缓解本地托管模型 虽然使用封闭的 API 和外观模式可以帮助降低信息泄漏的风险,但它们无法解决引入漏洞的风险,并且无法帮助模型适应您的内部知识库。另一种选择是托管您自己的法学硕士或生成式人工智能解决方案。 具有数千亿个参数的大规模模型的训练和更新成本极其昂贵。这使得大多数组织无法进行开发。然而,最近迁移学习和人工智能开发工具的改进使得举办自己的法学硕士变得更加容易。Meta 的 LLaMa 和斯坦福大学衍生项目 Alpaca 等解决方案都是较小的模型,可以使用低至600 美元的云计算成本进行训练。。有些解决方案足够小,可以在一台 MacBook 上进行训练。 这种方法的缺点是所得模型的质量稍低,尽管定性分析表明它们的性能仍然足以达到其预期目的。 本地托管的模型可以根据您自己的知识库进行定制;随着时间的推移,它们甚至可以变得比公共模特更好。


著名的泄露的谷歌备忘录说“我们没有护城河”也暗示了同样的事情。完全有可能的是,关于生成人工智能的秘密已经被发现,并且在不久的将来,我们将看到简化定制模型开发的工具和技术的持续改进。 使用本地托管解决方案将显着降低信息泄露的风险,包括个人数据泄露,因为任何数据都不会离开其受保护的环境。然而,它并没有完全 奥地利 WhatsApp 号码列表 消除风险。例如,数据建模的标准实践是领域事件不应公开数据模型或内部领域逻辑。在某种程度上,这是为了避免系统和服务的紧密耦合,从而巩固软件架构,但这也是防止元数据泄漏的最佳实践。内部元数据和数据模型可能包含您不希望向整个公司公开的敏感信息。数据网格架构通过确保只能通过数据产品的输出端口访问数据和元数据来明确解决此问题。 引入组织范围内的 LLM 可以像开放 API 模型一样打破这种隔离。



如果团队向人工智能提供特定于领域的逻辑或数据模型,人工智能可能能够将这些信息过滤出领域。鉴于托管自己的生成人工智能的成本和复杂性不断降低,每个领域拥有自己的自定义模型可能很快就会成为最佳实践。我们还没到那一步。有效地训练和托管本地模型仍然是一项技术挑战,但可以解决。几年来,我们利用机器学习持续交付 (CD4ML)原则,成功构建了运行特定领域模型的机器学习平台。事实上,我们相信持续交付原则对于确保高质量、安全的软件开发比以往任何时候都更加重要。 “防止引入漏洞的最佳方法是确保拥有健全的审查流程。” 持续交付实践 防止引入漏洞的最佳方法是确保您拥有健全的审核流程。在 Thoughtworks,我们大力倡导结对编程我们相信,让两个人参与整个软件开发过程对于创建高质量的代码至关重要。

回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|zv

GMT+8, 2025-4-19 17:36 , Processed in 0.031475 second(s), 18 queries .

抗攻擊 by GameHost X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |