リーダーは信頼できるAIプラクティスの責任を取り、行動を起こす必要があるとPwC

PwC

リーダーは信頼できるAIプラクティスの責任を取り、行動を起こす必要があるとPwC

AsiaNet 79530 (1241)

【大連(中国)2019年7月4日PR Newswire=共同通信JBN】PwCの最新報告によると、人工知能(AI)の15兆7000億ドル(注1)と推定される潜在的経済力は、組織が信頼できるAIプラクティスを統合し、それが開発される前に考慮されて初めて実現される。

PwCが今週発表した新しいツールキットによると、AIの開発と統合への個別的アプローチに対処するため、組織は信頼できるAIプラクティスの徹底した理解、開発、統合に留意する必要がある。

PwCは、組織がAIの具体的な戦略、設計、開発、展開に焦点を合わせ、それに合致するために必要な5つの要因を特定した。それらは、ガバナンス、倫理・規則、解釈可能性・説明可能性、ロバスト性・セキュリティー、偏向・公正である。

これらの要因は、戦略的計画およびガバナンスをAI開発に組み込み、公正、信頼、アカウンタビリティーへの高まる社会的関心に対処することに焦点を合わせている。

今年初め、最高経営責任者(CEO)の85%は、AIが今後5年間にビジネスを遂行する形態を大幅に変えると語り、84%はAIベースの意思決定が信頼されるためには説明可能でなければならないことを認めた(注2)。

PwC USのグローバルAIリーダーであるアナンド・ラオ氏は今週、大連で開催された世界経済フォーラムでの講演で以下のように語った。

「AIにおける倫理および義務の問題が大多数のビジネスリーダーにとって関心事であることは明白である。Cスイートは、AIが企業や社会にもたらす1世代に1度しかないような変革と経済的な潜在利益を両立させるために、責任ある倫理にのっとったAI開発に向けた戦略の徹底した統合を積極的に推進し、これに関与する必要がある。1つの要因でも欠ければ、名声、事業、財政に根本的なリスクが生じる」

PwCのResponsible AI Toolkitに掲載された診断調査によって、組織は責任ある倫理的なAIプラクティスの理解度と活用を評価することができる。2019年5月と6月、AIの開発および展開に関与した約250人の回答者がこの評価に答えた。

その結果、責任ある倫理的なAIプラクティスの理解および活用において未熟さと一貫性の欠如が明確になった。

*回答者のわずか25%がAIソリューションを実装する前にAIソリューションの倫理的影響の考慮を優先すると答えた。

*5人に1人(20%)はAIに付随するリスク特定のために明確に規定されたプロセスを設定している。60%以上は開発者、略式プロセスに依存するか、ないしは手順書を持っていなかった。

*倫理的なAIフレームワークあるいは検討事項はあるものの、実施は一貫性がなかった。

*56%は、組織のAIが異常なことをした場合、その原因を明確に説明することが難しいと答えた。

*半数以上の回答者は、AIの変更を評価するアプローチを規定していないとし、知識、ツール、特別評価の欠如を上げた。

*AIを大規模に活用している39%の回答者は、AIが暴走した際にAIを停止する方法を知っていることについて「多少は」自信があるに過ぎなかった。

PwC USのグローバルAIリーダーであるアナンド・ラオ氏は以下のように語った。

「AIはチャンスをもたらすものの、信頼性とアカウンタビリティーに関する固有の課題も生じさせる。AIの生産性における利点の実現に成功するには、組織的な全従業員の戦略とプランニングを統合する必要がある。Cスイートにとって絶対に必要なことは、組織における現在および将来のAIプラクティスをレビューし、潜在的リスクに対処するだけでなく、適切な戦略、コントロール、プロセスが整っているかどうかを確認する質問を投げ掛けることである」

「AI意思決定は人間が下すものと異なっていない。それぞれのケースで選択を説明し、関連コストと影響を理解できることが必要である。これは、偏向の検知、補正、説明、安全かつセキュアなシステム構築のための単なるテクノロジーソリューションではない。それは、ビジネスに与えるテクノロジーの影響の倫理および責任の要因を考慮に入れた新しいレベルのホリスティックリーダーシップを必要とし、それは初日からスタートする」

さらに大連で開催された世界経済サミット昼食会で、PwC Chinaのグローバル・テクノロジー、メディア&テレコミュニケーションズ・リーダーであるウィルソン・チョウ氏は以下のように付け加えた。

「責任あるAIの基盤は徹底したエンタープライズ・ガバナンスである。アカウンタビリティー、アラインメント、コントロールに関する質問に答えるための組織の能力は、中国の野心的なAI成長戦略を達成するための決定的な要因である」

PwCのResponsible AI Toolkitは、柔軟でスケーラブルな一連のグローバル能力で構成され、組織におけるAIの評価および開発を実現、サポートするように、固有のビジネス要件およびAI熟成度のレベルに合致した形で設計されている。

編集者注意

1. 約250人の上級企業幹部が2019年5月と6月にPwCのResponsible AI Diagnostic調査に応じ、Responsible AIの5つの主要要因であるガバナンス、倫理・規則、解釈可能性・説明可能性、ロバスト性・セキュリティー、偏向・公正に対する各社のAIソリューションの開発、展開、現行の管理について評価した。PwCのResponsible AI Toolkitに関する詳細はウェブサイトwww.pwc.com/rai を参照。

2. AI投資で確認された1次的要因としては、効率性の実現、持続可能な意思決定(AI for Good)のサポート、収益増大、イノベーション、リスク緩和である。

3. 2017年、PwCは、世界のGDPがAIの恩恵を受け、2030年に14%増大すると予測した。増大分は15兆7000億ドルに匹敵する。詳細はウェブサイトhttps://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html を参照。

4. World Economic Forum Annual Meeting of the New ChampionsへのPwCの関与ついては、ウェブサイトvisit www.pwc.com/amnc を参照。

▽PwCについて

PwCは、社会における信頼を築き、重要な課題を解決することを存在意義としている。私たちは、世界158カ国に及ぶグローバルネットワークに25万人以上のスタッフを有し、高品質な監査、助言、税務を提供している。詳細およびPwCへの要望については、ウェブサイトwww.pwc.com を参照。

PwCは、PwCネットワークおよび/ないしは独立法人である1社あるいはそれ以上のメンバーファームを意味している。詳細はウェブサイトwww.pwc.com/structure を参照。

(C) 2019 PwC. All rights reserved.

(注1)PwCのGlobal Artificial Intelligence調査であるSizing the Prize

(注2)PwCの22回目のGlobal CEO Survey

@PwCでフォローを。

ソース:PwC

Leaders Need to Take Responsibility for, and Action on, Responsible AI Practices - PwC

PR79530

DALIAN, China, July 4, 2019 /PRNewswire=KYODO JBN/ --

The estimated $15.7trn economic potential of artificial intelligence (AI)[1]

will only be realised if the integration of responsible AI practices occurs

across organisations, and is considered before any developments take place,

according to a new paper by PwC.   

Combating a piecemeal approach to AI's development and integration – which is

exposing organisations to potential risks – requires organisations to embed end-to-end

understanding, development and integration of responsible AI practices,

according to a new toolkit published this week by PwC.

PwC has identified five dimensions organisations need to focus on and tailor

for their specific strategy, design, development, and deployment of AI:

Governance, Ethics and Regulation, Interpretability & Explainability,

Robustness & Security, and Bias and Fairness.

The dimensions focus on embedding strategic planning and governance in AI's

development, combating growing public concern about fairness, trust and accountability.

Earlier this year, 85% of CEOs said AI would significantly change the way they

do business in the next five years, and 84% admitted that AI-based decisions

need to be explainable in order to be trusted[2].

Speaking this week at the World Economic Forum in Dalian, Anand Rao, Global AI Leader,

PwC US, says:

"The issue of ethics and responsibility in AI are clearly of concern to the majority of business

leaders. The C-suite needs to actively drive and engage in the end-to-end integration

of a responsible and ethically led strategy for the development of AI in order to balance

the economic potential gains with the once-in-a-generation transformation it can make on

business and society. One without the other represents fundamental reputational,

operational and financial risks."

As part of PwC's Responsible AI Toolkit, a diagnostic survey enables

organisations to assess their understanding and application of responsible and

ethical AI practices. In May and June 2019, around 250 respondents involved in

the development and deployment of AI completed the assessment.

The results demonstrate immaturity and inconsistency in the understanding and

application of responsible and ethical AI practices:

- Only 25% of respondents said they would prioritise a consideration of the

ethical implications of an AI solution before implementing it.

- One in five (20%) have clearly defined processes for identifying risks

associated with AI. Over 60% rely on developers, informal processes, or have no

documented procedures.

- Ethical AI frameworks or considerations existed, but enforcement was not consistent.

- 56% said they would find it difficult to articulate the cause if their

organisation's AI did something wrong.

- Over half of respondents have not formalised their approach to assessing AI

for bias, citing a lack of knowledge, tools, and ad hoc evaluations.

- 39% of respondents with AI applied at scale were only "somewhat" sure they

know how to stop their AI if it goes wrong.

Anand Rao, Global AI Leader, PwC US, says:

"AI brings opportunity but also inherent challenges around trust and

accountability. To realise AI's productivity prize, success requires integrated

organisational and workforce strategies and planning. There is a clear need for

those in the C-suite to review the current and future AI practices within their

organisation, asking questions to not just tackle potential risks, but also to

identify whether adequate strategy, controls and processes are in place.

"AI decisions are not unlike those made by humans. In each case, you need to be

able to explain your choices, and understand the associated costs and impacts.

That's not just about technology solutions for bias detection, correction,

explanation and building safe and secure systems. It necessitates a new level

of holistic leadership that considers the ethical and responsible dimensions of

technology's impact on business, starting on day one."

Also at the launch this week at the World Economic Forum in Dalian, Wilson Chow,

Global Technology, Media and Telecommunications Leader, PwC China, added:

"The foundation for responsible AI is end-to-end enterprise governance.

The ability of organisations to answer questions on accountability, alignment and

controls will be a defining factor to achieve China's ambitious AI growth strategy."

PwC's Responsible AI Toolkit consists of a flexible and scalable suite of global capabilities,

and is designed to enable and support the assessment and development of AI across

an organisation, tailored to its unique business requirements and level of AI maturity.

Notes to editors:

1.  Around 250 senior business executives completed PwC's Responsible AI

Diagnostic survey in May and June 2019, assessing the development, deployment,

and ongoing management of their AI solutions against five critical dimensions

of Responsible AI: Governance, Ethics & Regulation, Interpretability & Explainability,

Robustness and Security, and Bias & Fairness. Find out more about PwC's Responsible

AI Toolkit at www.pwc.com/rai.

2. Among the primary drivers identified for investment in AI were efficiency gains,

supporting sustainable decision-making (AI for Good), enhancing revenue, innovation,

and risk mitigation.

3.  In 2017, PwC estimated Global GDP will be 14% higher in 2030 as a result of

AI – the equivalent of an additional $15.7 trillion. For more information see:

https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html

4.  To find out more about PwC's involvement in the World Economic Forum Annual

Meeting of the New Champions, visit www.pwc.com/amnc

About PwC

At PwC, our purpose is to build trust in society and solve important problems.

We're a network of firms in 158 countries with more than 250,000 people who are

committed to delivering quality in assurance, advisory and tax services. Find

out more and tell us what matters to you by visiting us at www.pwc.com.

PwC refers to the PwC network and/or one or more of its member firms, each of

which is a separate legal entity. Please see www.pwc.com/structure for further details.

(c) 2019 PwC. All rights reserved.

[1] PwC's Global Artificial Intelligence study, Sizing the Prize

[2] PwC's 22nd Global CEO Survey

Follow @PwC

Source:  PwC

本プレスリリースは発表元が入力した原稿をそのまま掲載しております。また、プレスリリースへのお問い合わせは発表元に直接お願いいたします。

このプレスリリースには、報道機関向けの情報があります。

プレス会員登録を行うと、広報担当者の連絡先や、イベント・記者会見の情報など、報道機関だけに公開する情報が閲覧できるようになります。

プレスリリース受信に関するご案内

SNSでも最新のプレスリリース情報をいち早く配信中