AIが暴走する前に法整備を

AIが何でも解決してくれる魔法のように使用され始めている。しかし、AIはブラックボックスでどういう意思決定がされたのかを説明するのが難しい。欧州では早々と
説明責任発生する規則が施工されます。以下参照。
欧州連合(EU)のアルゴリズム的意思決定に関する規則と「説明の権利」
ブライス・グッドマン、 セス・フラックスマン
(2016年6月28日(v1)、2016年8月31日改訂版(このバージョン、v3))
EUの新しい一般データ保護規制が機械学習アルゴリズムの日常的な使用に及ぼす潜在的な影響を要約する。2018年にEU全体で法律として施行される予定であるため、ユーザーに「著しい影響を及ぼす」自動化された個人意思決定(つまり、ユーザーレベルの予測変数に基づいて決定を下すアルゴリズム)が制限されます。法律はまた、効果的に「説明する権利」を創出し、ユーザはそれらに対してなされたアルゴリズム決定の説明を求めることができる。この法律は産業界に大きな課題をもたらしますが、コンピュータ科学者が差別を避けて説明を可能にするアルゴリズムと評価の枠組みを設計する機会を強調すると主張します。
コメント: 2016年に発表された機械学習における人間の理解能力に関するワークショップ(WHI 2016)、ニューヨーク、ニューヨーク
科目: 機械学習(stat.ML) ; コンピュータと社会(cs.CY); 学習(cs.LG)
次のように引用: arXiv:1606.08813 [stat.ML]

[PR]
by katze210 | 2017-08-27 16:49 | 時事

自分の「好き勝手に書くブログ
S M T W T F S
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31