机器学习模型基于大量数据,提取统计模式来解决特定问题。用于训练的数据集可能仍然很敏感,要么因为它包含个人信息(医疗记录、电子邮件、地理位置等),要么因为内容受到限制(知识产权、战略系统等)。
在涉及个人数据方面,人工智能系统应完全遵守《通用数据保护条例》的法律规定。应采取适当的技术和组织措施。数据保护官员应评估所采取的措施是否达到适当的保护水平。
对这些数据应用匿名化或假名化是 GDPR 建议的一项安全措施,尽管其可行性在很大程度上取决于应用的环境。这样的举措进一步增加了所用系统的复杂性,因为这可能会影响人工智能系统的可解释性。
更一般地说,构建基于个人数据的人工智能系统要求机器学习流程中涉及的所有参与者,从收集数据到处理数据到训练模型、维护和使用模型,都必须被视为在处理这些数据时值得信赖。
训练数据的质量和正确性对于确保使用专门针对数据训练的机器学习技术的人工智能系统正常运行至关重要。训练数据与负责创建模型的机器学习算法一起,属于人工智能系统的一部分,因而也属于需 台湾号码资料 要保护的安全领域的一部分。因此,至关重要的是,数据集在机密性、完整性和可用性方面的安全性以及与可能的数据保护框架的遵守性是一致的。
人类尊严不可侵犯(基本法第1条第1款、基本权利宪章第1条)保证了人工智能的使用(在国家行动的背景下)不会将个人变成物品。此外,人工智能系统完全自动化的决策或分析只被允许在狭窄的范围内进行。 GDPR第22条专门规定,在使用人工智能的情况下,具有法律效力或类似重大损害的决策不得仅交给机器来做出。即使不开放 GDPR 第 22 条的适用范围,也必须考虑根据 GDPR 第 5 条的数据处理的一般原则。
当使用人工智能系统时,必须明确定义和传达责任。在此背景下,还必须建立一切必要机制,确保数据处理合法,尊重受影响者的权利,并保障人工智能系统的安全性和可控性。
特别是,负责机构必须遵守 GDPR 第 32 条规定的技术和组织措施以及 GDPR 第 5 条规定的数据处理原则。