设计和评估具有辅助功能的 AI 解决方案
尽管生成式 AI 可极大地提高残障人士的工作效率,但若被不负责任地构建,则可能会对易访问性带来以下挑战和风险:
- 偏见:影响生成式 AI 的数据、算法或结果的不公平或不准确的假设或偏好。 偏见的一个例子是,在用于生成式 AI 的数据集或模型中缺乏残障人士的代表性或多样性。 这种情况可能会导致不准确、不当或有害的输出。
- 残疾歧视:对残障人士的歧视或压迫,基于他们比其他人低劣或能力较差的假设。 残疾歧视的一个例子是,在设计、开发或评估生成式 AI 的辅助功能时,将残障人士排除或边缘化。 这样的排除会让残障人士在影响他们的解决方案中没有发言权或选择权。
必须考虑生成式 AI 在辅助功能方面的道德和社会影响,并让残障人士作为共同创造者和利益相关者参与进来。 然后,生成式 AI 可以成为能够赋能和支持残障人士的工具,而不是成为伤害或歧视的来源。
AI 解决方案的包容性设计原则
设计易于访问的 AI 解决方案需要了解特定的用户需求和上下文,并应用包容性设计的原则。
为了确保这种易访问、具有包容型的 AI 解决方案满足用户的期望和要求,并且不会产生任何意外的后果或损害,用户测试和评估至关重要。 用户测试和评估应涉及各种且具有代表性的用户样本,他们可以提供有关解决方案的可用性、有用性和可取性的反馈。
开发人员可研究问题和目标,通过各种方法进行用户测试和评估。 这些方法可能包括访谈、调查、观察或试验。
用户测试和评估结果应为解决方案的改进和优化提供信息。