从开源到保密—对人工智能保护的影响

聊天机器人服务 ChatGPT 背后的人工智能研究公司 OpenAI 决定不再公开其最新语言模型 GPT-4 实际工作原理的细节,从而登上头条。

虽然该公司一向乐意提供与其早期模型相关的此类细节,但发布 GPT-4 时附带的 技术报告称其“不含任何有关架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法或类似的细节”。该报告不仅强调了保持竞争优势的需求,而且指出,作出这项决定时,还考虑到了像 GPT-4 这样的大型模型的安全影响。

开发者社区鼓励协作并助力开发者在彼此工作基础上进行构建,长期以来一直倡导“开源”原则,据此源代码可供其他人公开访问、使用或修改,它。但是,随着 OpenAI(正如它的名称所暗示的那样,它的创始理念是开源)等公司开始维持其模型工作方式的专有性,开源原则的未来如何?这无疑会对人工智能创新的保护产生哪些影响呢?

其他公司采取了哪些方法?

针对是否以及如何保护自己的人工智能发明等问题,活跃在人工智能领域的公司持不同立场。

例如,谷歌曾就其持续存在的人工智能开源承诺展开讨论,并宣称其开源软件战略涵盖了人工智能模型从“理念到生产”的整个生命周期。与此同时,谷歌也在非常积极地提交与人工智能相关的专利申请,这表明它可能至少会试图阻止其他人使用其部分人工智能发明——甚至可能包括一些为 ChatGPT 等系统铺平道路的 核心自我关注方法

此外,IBM 也在今年早些时候宣布对其知识产权战略作出重大转变:29 年来,该公司成为美国最多产的专利申请人,如今其宣布,其 将采取更严格的方法申请专利,同时还将专注于在人工智能等专业领域取得进步。虽然 IBM 可能不会重点将未来专利数量作为量化他们的成功的指标,但是他们的高级副总裁兼研究总监 Darío Gil 强调称,“如果缺乏考虑全面、积极主动的知识产权战略,无法保护你所创造的部分,你就无法进行大规模创新”。

因此,大多数活跃在人工智能领域的公司似乎都已经开始审慎考虑如何在专有创新和开放创新之间实现合理的平衡。我们可能会看到,人工智能行业将发生更大的转变,从开源转向保密,或者保密与专利组合存在。

转为商业秘密?

人工智能行业对开源作出转变后,公司可以选择为他们的创新申请专利,也可以选择对创新保密。虽然专利提供了阻止他人使用发明的垄断权,但这是为了向公众公开这项发明。相反,商业秘密旨在承认秘密信息在支持企业竞争力方面的价值。因此,人工智能行业对开源作出转变可能会导致企业更多地通过商业秘密来保护人工智能创新,因为不需要向公众披露信息来换取保护。

但是,商业秘密不属于排他性权利,这意味着竞争者可以自由地独立创造受商业秘密保护的产品。此外,还存在这样的风险,即竞争对手可能还会对产品进行逆向工程并推断出商业秘密。在无法对产品进行逆向工程的情况下,将商业秘密作为防御性竞争战略的基础相对来说更加有效。然而,随着本领域技术的进步,对训练数据集甚至潜在人工智能模型本身进行逆向工程越来越容易,隐藏人工智能解决方案的可行性正逐步降低。当然,开发者在更换雇主时可能也会有意或无意地将一些机密知识传输给竞争对手,这种风险始终存在。

因此,公司采用保密保护策略存在一些弊端。例如,这种策略可能会使竞争对手获取公司已经在其产品中使用并通过商业秘密予以保护的技术专利。理论上来讲,竞争对手可以起诉公司侵犯这些专利。

如果发生这种情况,要是没有他们自己的技术专利,公司将无法提出反击。例如,他们将无法提起侵权反诉,也无法通过交叉许可协议与竞争对手进行谈判,从而避免诉讼。基于这些原因,公司是无法阻止竞争对手对其提起侵权诉讼的。

但是公司可能能够通过“先用权”抗辩来继续使用他们自己的技术,即便竞争对手现已获得这些技术的专利,至少在部分国家可以。但是,先用权仅适用于公司在竞争对手专利的优先权日之前使用的技术。这意味着竞争对手的部分专利权利要求可能不适用先用权。此外,公司对受先用权保护的技术所做的任何改进仍有可能侵犯竞争对手的专利,这可能会导致公司无法跟上竞争对手,并处于商业劣势。

考虑到主要或完全依赖商业秘密存在的弊端,尽管人工智能行业可能从开源转向保密,但很难想象许多活跃在人工智能领域的公司会采用这种以商业秘密为重的方法。在大多数活跃在人工智能领域的公司的保护策略中,专利仍将可能发挥重要作用。

对推动透明化的潜在影响

值得注意的是,即将出台的立法会对商业人工智能模型保持隐秘的能力产生实际影响。例如,欧盟正在制定一项监管人工智能的提案,这项提案可能会要求对某些行业内使用的人工智能产品的内部工作方式透明化,以确保它们符合欧洲监管要求。但问题在于,这是否会妨碍商业秘密的使用;或者相反,算法透明化面临的最大障碍是否是商业秘密这一概念。

目前来看,立法的目的在于,确保信息披露按照该领域的相关立法(包括关于商业秘密保护的第 2016/943 号指令)进行;以及在政府当局和公告机构需要获取机密信息或源代码以检查公司是否遵守实质性义务时,要求政府当局和公告机构承担有约束力的保密义务。由此可以推断,即将出台的欧盟立法可能会要求公司承诺遵守保密标准,并因此将商业保密义务提高到人工智能系统的透明化义务之上。

但是,第 2016/943 号指令允许“应用要求商业保密持有人出于公共利益向公众或行政或司法机关披露包括商业秘密在内的信息,以便这些机关履行其职责的欧盟或国家规则”。因此,将人工智能系统透明化的合法理由很可能会是“公共利益”;根据欧盟目前监管人工智能的提案,开发高风险人工智能技术时,“公共利益”可能包括健康、安全、消费者保护和其他基本权利的保护(“负责任的创新”)。

因此,即将出台的立法似乎确实很有可能会限制人工智能领域公司在是否对其人工智能系统细节进行保密方面的选择。毫无疑问,这会进一步降低商业秘密的吸引力,并鼓励公司为其人工智能发明申请专利,或者作出一系列差别细微的决定,对商业秘密和专利进行组合使用。

最后的思考

虽然人工智能行业可能会从开源转向保密,但公司要想依靠商业秘密来保护其人工智能创新,仍存在面临一系列难题的风险。随着人工智能领域的不断发展,应对其必然会带来的挑战和机遇的关键仍然是为人工智能创新获取专利保护。