人工智能申请专利——人工智能是否具有内在的可专利性?

对世界各地的专利局来说,审查人工智能技术与符合专利条件的主题之间的共同点是一项充满挑战的任务。许多专利局,尤其是欧洲专利局(EPO)和美国专利商标局(USPTO),都制定了成熟的发明(包括与人工智能相关的发明)审查流程,其中可能包含符合条件的特征和除外特征。不管它们打算执行哪项基础立法,这些流程通常都会试着将基于技术并因此具有可专利性的内容与抽象的、纯理论的、数学的或与业务相关的内容区分开来,从而将相关内容排除在许多司法管辖区的专利保护范围之外。

本领域的执业者习惯于精心设计权利要求和论据,以便以一种能够最大限度地提高审查过程成功通过几率的方式,来描述和展示我们面前的发明,从而为发明获得具有商业价值的保护。但是,有些时候,特别是对机器学习自身领域的进步而言,以一种能够实现发明普遍应得的有用的权利要求范围的方式来构建人工智能发明,这是不可能的。设法为该领域内众多充满挑战性的杰出发明解决专利资格问题后,我们认为,将人工智能单独视为一个技术领域,并承认该领域的创新本质上有资格获得专利保护,从而扩大人工智能发明专利保护的范围,存在商业、科学和伦理方面的理据。

确保专利制度符合目的——人工智能申请专利的商业案例

出于专利保护的目的,人工智能发明通常被划分为应用人工智能和核心人工智能。应用人工智能是指 ML 模型在特定技术问题中的应用,而核心人工智能是指机器学习自身领域的创新。核心人工智能创新可能适用于广泛的技术和工业领域,并且创新本身可能就已经决定了人工智能解决方案是否可行。但是,通常来说,最容易被从专利保护范围内排除的是核心人工智能发明。在欧洲,这类发明被视为一种纯粹的数学方法或计算机程序;而在美国,这类发明则被视为一种抽象概念。

人工智能的本质及其在世界上的可接受性和应用带来了巨大的挑战,只有通过对机器学习算法本身的性质、它们的工作方式以及我们对它们的理解进行创新才能解决这些挑战。将此类进步排除在专利保护范围之外看来不仅存在惩罚该领域投资者的风险,而且会打击此类创新的积极性。

人工智能是建立在数据之上的,目前人们已经开展了大量关于人工智能模型可解释性和可信度的研究,以便在比如基于收集自不完美世界的数据训练人工智能模型时,解决真正的偏见挑战。人工智能对数据的依赖还带来了与数据可用性相关的挑战。例如,考虑使用人工智能管理工业、运输或其他领域的灾难性故障事件。值得庆幸的是,用于训练模型的此类事件得出的数据相对较少,那么我们如何借助人工智能创新,利用人工智能提供的内容来预测和缓解此类事件呢?在一个完全不同的领域,我们如何利用人工智能来为数据有限的医疗挑战寻求解决方案?如果想要确保现有人工智能模型适合服务于医疗数据不能充分代表的人群,或者为数据明显稀缺的罕见疾病或遗传疾病寻求解决方案等,那么这个问题十分重要。应对这些挑战很可能需要对有限的可用数据进行创新型预处理、生成合成数据、调整现有模型或训练方法,以便能够利用更小的训练数据集实现更高的准确性,或者完全采用一些其它的方法。这些创新可能都属于机器学习自身领域内的创新,具有广泛的适用性和巨大的商业相关性,但是在获得专利保护方面可能面临重大障碍。

从数据相关挑战来看,人工智能是计算机实现的,这意味着其运行所需的基本资源通常有处理能力、内存、数据传输带宽以及完成该方法基础过程的时间。支持这一切的基础是,为任何计算系统所在的硬件供能的能量。虽然在物联网和其他受限设备中实施的人工智能模型日益增多,并因此给我们带来了特定的困难,但寻找更快、更经济和更生态化的方式来运行人工智能模型是所有人工智能系统未来面临的关键挑战。如果某项创新在减少了时间、处理、内存或通信资源需求的同时还得出了可用的结果,那么该项创新具有巨大的商业重要性,并且在人工智能技术的广泛应用领域也具有潜在的相关性。然而,在不受限于特定硬件或应用领域的情况下,此类创新在证实其是否有资格获得专利保护方面面临着巨大的挑战。

考虑到未来专利保护可能仅限于特定用例,因此商业价值有限,申请人可能会考虑完全绕过专利制度,寻求对其核心创新保密,或转向开源模型。虽然开源在开发者社区中很受欢迎,但 OpenAI 等主要市场参与者似乎正在舍弃开源模型,而即将出台的法规,尤其是《欧盟人工智能法案》,很可能会对该领域公司选择对其 AI 系统的细节保密的情形施加限制。

因此,该领域的潜在申请人可能会面临一个令人不愉快的选择,即要么选择高度受限的专利保护,而只保护一小部分商业范围内的创新,要么选择完全不作保护。扩大人工智能创新的专利保护范围可以激励人工智能研究,并确保专利制度仍以为该领域创新者服务为目的。

并不是各部分之和那么简单——人工智能的科学案例

作为欧洲专利代理人,我们在解决这个问题时必然会倾向于参考有关 EPC 下被排除主题的法律和实践(数学方法和计算机程序“本身”,以及技术性的“两个维度”)。但是,我们认为,下文提供的许多注意事项在其他司法管辖区相当重要。

你只需要简单地了解一下“人工智能”的含义,就会看到类似“人工智能只是数学”的说法。甚至人工智能是非常复杂的数学,或者人工智能是简单的数学但可以大规模执行的断言。然而,即便数学理解可能是使用和设计人工智能系统的基础,但考虑到这些系统的出色能力,说人工智能系统本身不过是数学而已似乎过于笼统。或许人工智能的功能性可以使用数学概念和语言来描述,但许多科学、工程和其他过程也是如此,我们完全可以将它们理解为技术。难道仅仅因为人工智能系统可以完全在数字领域运行,它就不是技术性的吗?纯数学方法真的能像 ML 模型所能做的一样进化、学习、推理、预测或考虑上下文和不确定性吗?多年来,强化学习算法一直在平衡探索和利用状态-动作空间的优缺点,但这些概念真的能与不过是数学方法的过程兼容吗?

我们建议,出于专利制度的目的,应将支撑人工智能系统的数学功能性视为可以代表模型基础功能性的各个组件的构建块。然而,以能够实现预期结果(一个可能包含逻辑性、批判性思维、不确定性、推理和定性知识的结果)的方式来安排这些构建块,是一个需要创造性技能的过程,其结果是远远超出可以被视为数学方法“本身”的创造。

数学与人工智能之间的关系不在本文适度探讨范围之内,但人工智能系统的特征可以证实以下观点,即凭借其进化和推理能力,人工智能实际上超越了描述和实现人工智能的数学模型和计算机程序。因此,我们认为,与计算机程序或数学方法本身相比,人工智能本身体现了进一步的技术效果,并且人工智能本质上是或应该是一个技术领域,该领域的发明应当有资格获得专利保护。

激励披露——人工智能申请专利的伦理案例

随着生成式人工智能模型占据新闻头条次数的增多,以及有关这些令人印象深刻的机器的安全性和合法性讨论持续进行,可以看到,人们将安全性作为了披露和隐瞒这些机器实际工作细节的原因。OpenAI 的 GPT-4 就是一个很好的例子。很多来自人工智能社区的人都在要求提供有关 GPT-4 设计、实施和训练的细节,以评估和减轻潜在的危害和风险,同时评估 GPT-4 的人力和环境成本。然而,除了强调保持竞争优势的需求,OpenAI 还表示 GPT-4 等模型可能会造成潜在危害,这意味着这些模型可能过于强大,无法冒险让它们进入公共领域。OpenAI 的首席科学家兼联合创始人 Ilya Sutskever 甚至表示 “我充分认为,几年之后,每个人都会十分清楚地发现开源人工智能是很不明智的”。

对于人工智能技术方面取得的令人难以置信的进步进行安全管理,是我们所有人都很关心的问题。虽然国际监管和标准化很有必要,但专利制度提供受控披露及公共信息与商业保护间的平衡,这有望在部分减轻人工智能技术的安全问题方面发挥重要作用。在此背景下,扩大人工智能创新的专利保护范围是非常可取的。

最后的思考

这篇短文只能浅析一下采用更具包容性的方法来保护人工智能发明专利的情况。我们已经充分了解了人工智能发明专利申请方法的这种转变所带来的挑战。但是,我们仍然认为,人工智能创新将无处不在、它对全球经济至关重要、它在塑造我们的未来方面有着非凡的潜力,这些足以让人工智能在科学创新方面自成一派。因此,对人工智能发明的可专利性方法进行更加彻底的转变,这一问题值得认真考虑。