- 存档
- 2023
浅谈隐私计算
随着人工智能和云计算的兴起,越来越多的应用场景致力于提供智能化。在实现智能化的过程中,数据是机器学习的核心元素,只有通过对大量的数据进行训练,才能提高训练结果的准确性。然而,数据往往包含用户的隐私。当未加密的数据被黑客获得时,其所包含的各种敏感资料也将直接暴露给黑客。近年来,随着隐私泄漏事件的增加,隐私保护和数据安全已经成为人工智能在实际应用中的关键。
针对该问题,人们首先想到的是,对数据进行加密。然而,在执行机器学习算法的过程中,我们不仅需要保护数据,还需要对加密后的数据进行计算。因此,一些密码学算法(比如DES,AES, 哈希算法等),虽可用于保护数据的机密性,但并不能满足云计算和机器学习的计算需求。为此,人们提出了隐私保护计算技术(简称隐私计算)。
目前,用于实现隐私计算的密码学算法主要有:安全多方计算(Secure Muti-party Computation,MPC)、秘密分享(Secret Sharing,SS)、不经意传输( Oblivious Transfer, OT)、同态加密(Homomorphic Encryption,HE)、函数加密(Functional Encryption, FE)等。其中,MPC具备去中心化,输入数据安全,计算结果准确的优势,即它可以保证多个参与方在共同计算后,既可以获得正确的计算结果,也避免了向其他参与方泄露隐私信息。因此,MPC主要用于联合数据分析和查询的场景。通常,SS和OT是构造MPC的辅助算法。HE支持用户对密文数据进行加法乘法运算后,解密得到的结果(几乎)等同于用户对明文数据进行相同的处理。因此,在机器学习训练的过程中,客户端只需将加密后的数据发送给云服务器。这样,客户端既可以应用云服务器的计算力训练模型,又不用暴露数据。FE不仅允许用户对密文进行选择性的计算(比如计算数据的平均值),而且支持访问控制(即只有具备对应身份/属性的用户才能对密文进行运算)。除了人工智能和云计算外,MPC、HE和FE在医院、银行、区块链等场景都有落地应用。
LSCM – Cailing Cai