是“对算法的使用保持开放和透明”解释数据的收集和处理方式、算法如何防止歧视、风险和保障措施是什么以及如何实施人类监督。之前的职责只是更大职责的组成部分问责制。为了满足问责要求必须建立内部和外部监督机构为其提供充足的资金和合格的人力资源。请注意这些机构的责任不仅限于算法分析还扩展到数据使用的各个方面包括数据收集的手段、数据的目的、处理和存储以及结果的使用(包括二次使用)。一般来说技术公司的道德团队负责这些措施。在实践中问责制要求表明责任主体是谁(算法的控制者和操作者。
定义处理非法内容(例如歧视性决定)时与主管当局合作的程序并规定开发者有责任检测和减少其人工智能生成的非法内容。仍然需要非常小心地保证数据的质量因为输入的质量将决定输出的质量。适当的数据收集和质量 意大利 Whatsapp 数据 策略可以缓解许多问题因此监控数据质量和收集对于避免偏见和歧视性应用至关重要。这将要求人工智能开发人员对语言模型的训练方式和使用的数据保持透明。它还需要对输入数据、操作或解释结果的软件操作员进行充分的培训并且这种培训必须在制度上纳入控制器的例程中。培训应特别注意算法的局限性特别是误报。
和自动化偏差的可能性以及解释结果时个人和机构的责任。事实上偏见问题是最令人担忧的问题之一因为开发人员(仍然主要是白人)的观点和信仰可以在算法中体现出来。数据集也可能存在偏见并且直接决策不成比例地偏向少数群体(大数据偏见)就像美国的所发生的那样其中黑人和来自少数族裔集中的贫困社区的人被认为更有可能再次犯罪因此被剥夺了自由应对刑事诉讼的权利。因此决策的质量(如果不是正义本身)将取决于对用于系统培训和可操作性的数据的严格控制和充分性。最后必须认识到人工智能产生的结果只不过是概。
|