云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

数据库_域名解析器_新注册优惠

小七 141 0

数据库_域名解析器_新注册优惠

在这个由两部分组成的博客的第一部分中,物联网概念股,我们看到设计原则和数字伦理建立了对人工智能(AI)的信任。然而,我们并没有解决我们最有可能发现这些道德挑战的领域。清单可以帮助识别最相关的陷阱。团队应该定义这样一个列表,以确保他们正确和负责任地将人工智能系统引入世界。仔细规划、实施和操作人工智能系统不仅很重要,如果需要,还可以制定终止计划。

以下问题有助于制定此类检查表。大多数项目适用于多个阶段,希望对团队创建个性化的、特定于人工智能的检查表有用。

让我们从一些关于人工智能驱动过程中人类参与的问题开始。

涉及哪些用户角色以及这些用户的个人道德要求是什么?(例如,酒店接待员的要求与医生截然不同。)

用户将在哪些环境下工作?(为这些上下文创建参数,大数据运维,以帮助AI"理解"用户当前的情况,并根据他们的道德需求进行调整。例如,采购流程可能具有参数"紧迫性",因此,如果认为采购是紧急的,则可以接受不从公平贸易来源采购。)如何评估每个用户的当前状态以及如何使用这些信息?(例如,如果使用眼睛跟踪技术,什么是大数据云计算,收集到的关于用户阅读行为和情绪状态的信息会发生什么变化?)

用户的文化环境是什么?用户共享哪些道德和社会价值观?

是否存在用户需要或希望完全或部分关闭AI功能的情况?你应该为AI功能开发一个"逃生门"吗?如果出现这种情况,如何支持用户?

如果要求明确的用户反馈,将如何评估?(例如,大数据行业分析,如果一个系统在分析为什么一个月的收入很低时通过观察用户来学习,那么人工智能是否需要首先询问用户是否可以通过观察他们的行为来进行培训?)

商业人工智能的一个要求是透明,尤其是关于为什么会取得结果。对于某些人工智能技术,如神经网络,这可能是一个挑战(甚至是不可能的)。以下是一些关于技术边界的检查表项目。

如何监控"学习和遗忘"过程(例如,在数据过时或法律删除义务的情况下)?人类将如何参与其中(例如,以"人工智能审计员"的形式)?

人工智能"学与忘"的规则是什么?如何定制?是谁干的?

如何监控用于学习的信息质量?

机器将如何评估何时人类必须参与决策或何时向人类寻求建议?

系统创建的决策或建议的限制是什么(例如,人工智能有哪些领域,人工智能交互的过程可能取决于"如果要购买的商品价值超过10000欧元,则必须有一个人工决策者参与。")

在哪些情况下,一个过程需要四眼原则(即。,两个人必须审查一切)或其他建立信任的措施?

计算结果——以及它们是如何实现的——能被人类理解吗?是否有可能立即或在某些动作之后理解它们?(例如,通常用户可能不需要解释为什么人工智能做出决定。但是,如果用户需要解释,系统必须能够提供。)计算结果是否可以重现(不需要或经过额外的学习步骤)?如果没有,如何通知用户?在哪些过程步骤中"逃生门"是必需的或合理的?他们应该在多大程度上停止人工智能功能?如何测试它们?用于学习的数据是否没有偏见?如果没有,偏见的来源是什么?偏倚水平能被分析和量化吗?

偏差在多大程度上影响系统的计算结果?

如何使用结果向用户或其他系统显示偏差水平?

法律合规和数据安全与数字道德密切相关。让我们看看一些需要考虑的基本问题。

哪些法律合规性主题必须涵盖(包括数据隐私)?哪些公司内部政策适用?在开发和运营期间如何监控合规性?

在人工智能供应商自律方面,人工智能开发计划是否符合公司自身标准?

人工智能做出的决定是否可能导致责任问题?在什么情况下?

是否有可能故意教给系统错误的东西?如何发现安全漏洞(包括错误的教学)?

如何避免和发现后门的实施?

如何揭示潜在的、隐藏的覆盖指令?

在哪些情况下系统的寿命必须终止?在这种情况下,学习到的信息会发生什么变化?

根据阿马拉定律,"我们倾向于高估一项技术在短期内的效果,低估长期内的效果。"因此,研究潜在的长期伦理问题是有意义的。

如何进行长期风险评估?如果任务大规模自动化,会对社会产生什么样的影响?

如果系统被广泛使用,人类会失去知识或能力吗?

如何检测AI系统的行为变化?

如何监控意外或不合理的计算结果?如何避免或过滤?

我们如何检测系统是否独立于任何人工定义的任务开始工作?在这种情况下我们将如何反应?