カテゴリー: 人工知能

フランス発、ヨーロッパ発のAI・人工知能関連のニュース

  • フランスは人工知能安全サミットをリードするエンジニアを任命する

    フランスは人工知能安全サミットをリードするエンジニアを任命する

    フランスのエマニュエル・マクロン大統領は、エンジニアのアンヌ・ブーヴェローに、フランスで開催される世界の次の人工知能(AI)安全サミットの開催を依頼しました。

    ブーヴェローは、「AIのオープンで民主的なグローバルガバナンスに貢献するための継続的な国際イニシアチブ」を継続するよう求められている。

    そのような最初のサミットは、第二次世界大戦のコードブレーカーで有名なブレッチリーパークで昨年11月に英国によって組織されました。その結果、28カ国が署名したブレッチリー宣言が生まれました。

    宣言は、AIは「人間の幸福、平和、繁栄を変革し、強化する」可能性があると述べているが、「安全…人間中心で、信頼でき、責任ある方法で設計、開発、展開、使用される」べきだと付け加えている。

    OpenAIのChatGPTが2022年後半に現場に登場して以来、人工知能の開発には多くの興奮がありましたが、この技術が引き起こす可能性のある害に対する懸念は並行して高まっています。

    偽情報

    例えば、EUは今週の火曜日にFacebook、TikTok、その他のハイテク大手に、6月のヨーロッパ全体の世論調査に先立ち、明確なラベルを使用して、ディープフェイクやその他のAI生成コンテンツを取り締まるよう求めた。

    ブリュッセルは、ブロックの27の加盟国で行われる選挙に対するロシアの操作と偽情報が特に懸念している。

    EUは、特にコンテンツのモデレーションに関して、ビッグテックを取り締まるために、新しく承認されたデジタルサービス法(DSA)の下で一連の措置を解き放ちました。

    人工知能委員会のアンヌ・ブーヴェロ共同会長は、2023年10月9日にパリで開催された写真セッションでポーズをとっている。AFP - ジョエル・サゲット
    人工知能委員会のアンヌ・ブーヴェロ共同会長は、2023年10月9日にパリで開催された写真セッションでポーズをとっている。AFP – ジョエル・サゲット

    ブーヴェローは、有名な高等師範大学(ENS)でAIの博士号を取得し、取締役会の議長も務めています。

    彼女はまた、当時のエリザベス・ボーン首相によって2023年9月に設立された15人のジェネラティブAI委員会の共同議長を務めています。

    委員会は、フランスが米国と中国に追いつくために5年間で毎年50億ユーロを投資することを推奨した。

    フランスのサミットは、5月に韓国が主催するAIに関するミニバーチャルサミットによって進められ、ブレッチリー宣言とフォローアップアクションが議論されます。

    今月初め、米国、日本、ドイツ、フランス、英国、イタリア、カナダを含むG7は、「AIガバナンスフレームワーク間の相互運用性を前進め、強化する」ための継続的な努力があると述べた。

    (ニュースワイヤー付き)

    https://www.rfi.fr/en/france/20240329-france-appoints-engineer-to-lead-artificial-intelligence-safety-summit

     

  • AIのサインの下のInCyber 2024フォーラム

    AIのサインの下のInCyber 2024フォーラム

    国際サイバーセキュリティフォーラムは今年名前を変更し、InCyber Europe Forumになります。3月28日までリールで開催されるサイバーセキュリティに特化したこの参照イベントは、AIのサインの下に置かれました。

    InCyberヨーロッパフォーラムの第16版は、パリオリンピック、欧州選挙に向けてサイバー攻撃の強力な急増の文脈で来ますが、それだけではありません!企業、個人、地方自治体、医療機関を攻撃するマフィアグループのランサムウェアは増加しています。そして、特にウクライナでの戦争のためにモスクワによって海外から画策されたいわゆる国家攻撃は、ヨーロッパ、特にフランスで蔓延している、とFICの創設者であるMarc Watin-Augouard将軍を思い出させる:「2014年から2022年の間に、ウクライナはサイバー防衛に投資し、EUははるかに少ない」。

    サイバー犯罪とAI

    サイバー犯罪者は、ChatGPTなどの生成タイプの人工知能プログラムを使用して攻撃を実行することが増えています。そして、それらによりよく対抗するために、AIを使用したサイバーセキュリティソリューションも導入されています、とInCyberフォーラムのディレクターであるギヨーム・ティシエは言います。「いつものように、それぞれの新技術はアンビバレントです。AIの良い面は、攻撃の検出を改善したり、ハッキング中に多くの超高速反応を自動化するために、長い間サイバーセキュリティソリューションに統合されてきたことです。」

    AIは脆弱です

    InCyberフォーラムのディレクターによると、「否定的な点は、ジェネレーティブAIがサイバー防衛を目的としたこれらのプログラムを正確にホストするシステムに対する攻撃を開始することを可能にすることです。ハッカーは、例えば、結果をよりよく歪めるために、これらのAIプログラムのデータを毒しようとします。しかし、この可能性を超えて、一部の攻撃者はすでに生成AIプログラムを使用して、ハッキングされるターゲットのオンライン認識を自動化したり、侵入のそれぞれで、使用するコンピュータウイルス、ワーム、またはマルウェアの署名が検出デバイスを欺くために常に変更されていることを確認します。そしてギヨーム・ティシエは、「最終的に、ジェネレーティブAIプログラムの急速な民主化は、私たちの情報システムの脆弱性の表面をいくらか広げました。それらの使用が増加すればするほど、私たちはより良い、より良い、より良い自分自身を守るために、そしてますます洗練される可能性のあるサイバー攻撃で悪化するために、これらのプログラムに依存するようになります。

    自分をサイバーで守ることを学ぶ

    InCyberヨーロッパフォーラムの機会に、Cybermalveillance.gouv.frウェブサイトの啓発センターのディレクターであるLaurent Verdierは、SensCyberの新バージョンを発表しました。デジタルリスクに関するこれらの無料のオンライントレーニングモジュールは、一般市民およびTPE-SMEの従業員がアクセスできるようになりました。

    サイバー犯罪とパリ2024年オリンピック

    個人データハッキングのかなりの脅威がオリンピックに重くのしかかっていると、個人データ保護のためのフランス特派員協会のオリヴィエ・ジベール会長は言う。

    EUにはサイバーセキュリティの専門家が欠けている

    イル・ド・フランスの高校のデジタルワークスペースを通じて広められた斬首ビデオを伴う最近の攻撃の脅威は、サイバーセキュリティが新しい才能や専門家に非常に不足していることを示しています。これが、InCyber 2024フォーラムが第4回欧州サイバーカップを開催する理由です。この倫理的なハッキングコンテストは、すべてのコード、つまり公共とソーシャルネットワークの両方で放送されるライブアニメーションを含む電子スポーツコンペティションとして組織されています。 目的は、明らかに、エンジニアリングスクールの学生とリールのinCyber 2024フォーラムへの訪問者の間でサイバーセキュリティの職業を強調し、海賊行為のグローバル化された惨劇と戦うために将来の専門家を募集することです。

    ドミニク・ドソーネー

    https://www.rfi.fr/fr/podcasts/un-monde-de-tech/20240328-le-forum-incyber-2024-placé-sous-le-signe-de-l-ia

     

  • ビッグテックは、EU選挙に先立ち、AIのディープフェイクを特定し、ラベルを付けるように言われた

    ビッグテックは、EU選挙に先立ち、AIのディープフェイクを特定し、ラベルを付けるように言われた

    欧州連合は、Facebook、TikTok、その他の大手ハイテク企業に、6月の欧州選挙に先立ち、明確なラベルを実装することにより、ディープフェイクやその他のAI生成コンテンツに対して断固とした行動をとるよう促した。

    この動きは、今月初めに議員によって承認されたEUの画期的なAI法の下で発表された一連の措置の一部であり、Snapchat、Instagram、YouTube、Xを含む22の「非常に大規模な」ソーシャルサイトのAIコンテンツを管理しています。

    欧州委員会は、これらのサイトが政治広告に明確なラベルを付け、世論調査の完全性を危険にさらす可能性のある「コンテンツのバイラリティ」や偽情報を減らすことを望んでいます。

    ブリュッセルは、ロシアの「操作」の影響について特に警戒している。

    リスク評価

    新たにリリースされたガイドラインで、EU委員会は、主要なプラットフォームは「ディープフェイクとして知られるAIによって生成されたコンテンツに明確にラベルを付けるなど、AIに関連する特定のリスクを評価し、軽減しなければならない」と述べた。

    「今日のガイドラインでは、表現の自由を保護しながら、プラットフォームが義務を遵守し、選挙を操作するために悪用されないように、DSA[デジタルサービス法]が提供するすべてのツールを最大限に活用しています」と、ヨーロッパのデジタルコミッショナーのティエリー・ブレトンは述べています。

    ガイドラインは法的拘束力はありませんが、プラットフォームは、遵守しないことを選択した場合、代替の「等しく効果的な」措置を概説する必要があります。

    規制当局がコンプライアンス違反があると信じていない場合、EUはさらなる情報を要求する可能性があり、企業も調査され、罰金を科される危険性があります。

    EUは、4月下旬に関連プラットフォームと協力して「ストレステスト」を実施し、準備を評価すると述べた。

    Xは12月以来、コンテンツのモデレーションについてすでに調査中です。

    今月初め、委員会はFacebook、Instagram、TikTok、その他の4つのプラットフォームに、世論調査に対するAIリスクにどのように対抗しているかについてより多くの情報を提供するよう求めた。

    (ニュースワイヤー付き)

    https://www.rfi.fr/en/international/20240327-big-tech-told-to-identify-and-label-ai-deepfakes-ahead-of-eu-elections

     

  • 人工知能と音楽:創造的な革命または生産ツールの改善?

    人工知能と音楽:創造的な革命または生産ツールの改善?

    人工知能は、音楽だけでなく、創造のあらゆる分野で不可欠です。アーティストは、研究者やエンジニアと協力して、その進歩によってもたらされる可能性に興味を持っています。しかし、これらの技術は曲の作曲と制作に何をもたらしますか?彼らは今日どこにいますか?私たちはすぐに機械が男に取って代わるのを見るだろうか?

    ブノワ・カレが人工知能(AI)のおかげで作曲された音楽に乗り出したのは、彼が他の人のために曲を書くのに少しうんざりしていたからです。彼のグループ、Lilicubの曲に興味のある研究者から連絡を受けたこのかなり慎重なミュージシャンは、彼が研究所で提供された機械を最初にテストしました。「ピアノで演奏されたものの続編を書いたコンティニュエーターと呼ばれる技術があった」と彼は振り返る。その後、実験への願望に駆られて、彼は2015年にソニーCSL研究所のFlow Machinesプロジェクトに参加し、AIで作曲に取り組みました。

    ブノワ・カレは、最初にビートルズのレパートリーから曲をテストとして想像しました。デンマーク語で「影」であるSkyggeという仮名で、彼はAIと共同作曲した最初のエレクトロポップアルバム「Hello World」を書いた。このレコードのために、ソングライターはStromae、ポップグループThe PirouettesやジャズマンのMédéric Collignon、そして彼に音楽の提案をした生成AIなどのゲストを呼びました。「ハローワールドで、私たちは作曲に取り組みました。すべてのメロディーは、マシンに与えられたスコアから生成されました。例えば、Ballad of the Shadowという曲では、詩はAIによって生成され、私はコーラスを書きました」と彼は説明します。

    AI、機械による人間の模倣

    AIが今みんなの唇にあるなら、それは実際には「いくつかの現実をカバーするスーツケースの言葉」である、と、Spotifyストリーミングプラットフォームの国際音楽ディレクター、ブルーノ・クロロは新聞ル・モンドで述べた。最も話題になっているのは、ジェネレティブ人工知能です。

    AIを定義するために、私たちがインタビューした研究者は、コンピュータによる人間の創造的または知的機能の模倣に同意します。この結果を達成するために、近年主に自らを課してきた技術は「ディープラーニング」のものです – 翻訳:「ディープラーニング」。人間の脳とまったく同じように、私たちは深いルーツを持つニューラルネットワークを使用し、それが引き出すデータベースのおかげで、特定のタスクにマシンを訓練します。

    The WeekndとDrakeの間の私の袖に想像上のデュオHeart、Oasisの新しいアルバム、AngèleはラッパーHeuss l’enfoiréとGazoからサイヤ人を引き継ぐ、またはKaarisが漫画Scoobidoo(sic)のクレジットを歌っています。ディープフェイクはウェブやソーシャルネットワークに侵入した。

    AllttAで、ビートメーカーのシルヴァン・リチャード(別名20syl)は、彼のグループとアメリカのスターJay-Zの間の仮想デュオであるSavagesを想像するところまで行きました。1990年代のラップトーンのこの曲では、ビートメーカーは他の曲と同じように機能しました。彼は彼が作曲したインストゥルメンタルと彼の相棒のJ氏のアカペラから始めました。メデイロス。彼は無料のUberduckアプリケーションにテキストとこの歌の行を入力し、「Jay-Z IA」の声を生成しました。多くのレタッチの後、彼はこのボーカルパートを彼の相棒のパートとミックスし、本物のデュオの錯覚を与えました。

    音声やその他のアプリケーションの模倣

    AllttAのディープフェイクは、2年前、「ChatGPTの発売前」と「ミッドジャーニー革命」のイメージのために作られました。アーティストが利用できるツールの急速な進化に伴い、20sylは、良い結果を達成するために多くのことをいじらなければならなかったとき、ワンクリックで多くのことができるようになったと信じています。有名な声の模倣を可能にする「声合成」は、最も興味深い20sylです。ブノワ・カレもこの方向への探検を続けている。

    しかし、AIは音楽の執筆から制作まで、さまざまなタスクをカバーしています。メロディーやサウンドを生成したり、テキストを書いたり、曲のトラックを分離したり、これまで退屈だった多数のタスクを自動化したりできます。

    しかし、それは本当に技術革命ですか?「これはおそらく、私たちがすでに持っているツールを改善するでしょう:ドラムマシン、サウンドプロセッシングエフェクト、マスタリングツール…また、私が期待しているのは、このAIがハイブリッド機器を作成できるようにしてくれるということです」と20sylは説明します。

    Mubert、Music LM、または最新のSuno AIなどのオンラインアプリケーションは、すでにワンクリックで音楽を生成します。しかし、ブノワ・カレと一緒にソニーCSLのフローマシンプロジェクトに携わった研究者フランソワ・パシェは、人間の手なしではまだできないと考えています。「一般向けのAIは、今や生産ツールにすぎません。特に音声合成では面白いです。しかし、商業には構成の問題は何もない」と彼は要約する。

    問題として、彼によると、ポップミュージックの作曲に対する一般的な無関心、そして何よりも著作権に関連する作品の制限。いずれにせよ、すべての回答者は同じ観察に同意します。現時点では、AIの結果は画像よりも音楽にとって説得力がありません。しかし、アプリケーションの絶え間ない進化を考えると、この観察は決定的ではありません。

    AIがステージに上がるとき。

    Ircamでは、研究者のGérard Assayagが1992年に研究チームを設立して以来、人工知能を検討してきました。それ以来、彼は特にジャズピアニストのベルナール・ルバットと一緒に、定期的にAIをステージに演着せています。

    欧州の資金によって資金提供されたREACHプロジェクト(*)の場合、アイデアは人間と機械の相互作用を作り出すことです。このため、彼はナショナル・ジャズ・オーケストラ(ONJ)とのプロジェクトのために、ルバット、ギタリストのシルヴァン・リュック(最近亡くなった)、トロンボーン奏者のジョージ・ルイス、スティーブ・リーマンなどの大きなジャズ名を呼んだ。

    彼はまた、イルカム研究所で約10の即興セッションのためにイルカムのレジデンスにダブルベーシストのジョエル・レアンドルを招待しました。 この作品は、昨年、ウゼステフェスティバルで、パリのポンピドゥーセンターでの2つのコンサートを開催しました。

    なぜアフリカ系アメリカ人のフリージャズと現代音楽を経験したこの優れた即興演奏家は、彼女が「サウンドボックス」と呼ぶものに直面して演奏することに同意したのですか?「現代的であること、それだけだ」と彼女は答える。機械は何を変えましたか?「私にとって、大きな違いはありません。私は他のミュージシャンのように、聴いているものに反応します」と彼女は言います。機械とのこの交換で、ジョエル・レアンドレ・ポエティス:「私は人間を信じています。彼は私の楽器を作った人です。木材、ワニス、ウィーバー、弦の長さ、振幅。AIは私にとってもう一つの道具です。しかし、この楽器は他のものを予想せず、押しつぶしません。それは冒険です、それだけです!

    (*)サイバーヒューマン音楽の共創性を高める、次のように翻訳すべきもの:サイバーヒューマン音楽の共創性を高める。

  • フランスのミストラルAIがマイクロソフトとパートナーシップを締結

    フランスのミストラルAIがマイクロソフトとパートナーシップを締結

    マイクロソフトは、フランスのMistral AI社が、AIを使用したアプリの構築を可能にするAzure AIを含む同社のプラットフォームを使用できるようにする「複数年のパートナーシップ」を締結したと発表した。

    すでにChatGPTメーカーOpenAIに数十億ドルを投入している米国企業は、月曜日の声明でミストラルを「イノベーターと先駆者」と呼んだ。

    この取引は、米国当局がマイクロソフトが報告したOpenAIへの130億ドルの投資が独占禁止法を破ったかどうかを調査し始めたわずか数週間後に行われます。

    この取引は、連邦取引委員会(FTC)によって精査されている大手ハイテク企業とAIスタートアップの間の3つのパートナーシップの1つです。

    同社はいかなる不正行為も否定し、OpenAIによってこれまで一般の想像力で定義されているセクターへの進出を止めていない。

    米国企業が支配する分野

    シリコンバレーの会社は、ユーザーが簡単なリクエストからテキスト、写真、ビデオを生成できるソフトウェアを開発しました。

    昨年、元GoogleとMetaの研究者によって結成されたMistralは、米国企業が支配する分野ではまれなヨーロッパのプレーヤーです。

    すでに約5億ユーロ(5億4000万ドル)を調達しているフランス企業は、月曜日にマイクロソフトとのパートナーシップを確認しました。

    「マイクロソフトとのパートナーシップに着手することに興奮している」とミストラルのボス、アーサー・メンシュは言った。

    彼は、それが彼の会社の製品を世界中の顧客に推進するのに役立つと述べました。

    一部の投資家は、12月にミストラルを20億ドル以上と評価し、将来のヨーロッパのハイテクチャンピオンになるという熱狂的な憶測につながった。

    「ル・チャット」

    これまでビジネスクライアントのバックエンド開発に注力してきた同社は、月曜日に「Le Chat」と呼ばれる最初のチャットボットを発表しました。

    「Le Chatはネイティブの多言語であり、Mistral AIの技術を探求するための教育的で楽しい方法を提供している」と同社は英語での声明で述べた。

    同社は、より広くリリースする前に、一部の顧客にボットをテストさせると述べた。

    Mistralはまた、AI企業がパブリックデータの助けを借りて開発するプログラムを指すために使用する用語である既存の言語モデルのアップグレードを発表しました。

    ヨーロッパのAI企業の中で、昨年のミストラルと同じくらいの資金をもたらしたのはドイツのアレフ・アルファだけだった。

    (AFPと)https://www.rfi.fr/en/science-and-technology/20240227-france-s-mistral-ai-signs-partnership-with-microsoft

  • 2024年の主要な技術トレンド

    2024年の主要な技術トレンド

    この新年の夜明けに、2024年に私たちの日常生活を揺るがす主要な技術トレンドは完全に特定されています。デジタルツイン、オンラインでパーソナライズされた仮想アバター、すべて明らかにますます効率的な人工知能プログラムによって中断されています。

    ジェネラティブ人工知能が2024年に世界で最も影響力のある技術になると予測するために、デジタルクリスタルボールを取り出す必要はありません。昨年、彼女は一般大衆に自分自身を招待し、文化、教育、金融、デジタル規制機関の世界を扇動しました。アメリカのアナリスト会社ガートナーの予測によると、2026年までに80%以上の企業がジェネレティブAIを使用して新しい市場を征服するだろう。国際労働機関が実施した最新の研究によると、これらのプログラムが雇用に与える影響は相当なものになるだろう。

    AI技術の展開は、その活動分野に関係なく、おそらく強制的に行進するだろう

    教育部門も含めて!フランスの高校生は、例えば、2月から早期退学と戦うために設計されたこれらのプログラムを発見するでしょう。ジェネラティブAIはまた、メディアと書面による報道機関を揺るがしています。ドイツのSpringerグループは、すでにOpenAIのGPTシステムを使用してコンテンツを生成しています。しかし、編集室では、この展開はスムーズではなく、ニューヨークタイムズは、ChatGPTが偏った方法でインターネットユーザーとのプレス記事を要約することによって「民主的な運動を損なう」と信じて、OpenAIとマイクロソフトに対して苦情を申し立てたばかりで、OpenAIはニューヨークタイムズによって発行された何百万もの記事を分析することによって自動書き込みモデルを訓練するために米国の著作権法に違反しました。

    2024年のもう一つの傾向:より没入型のインターネットを好む拡張現実およびバーチャルリアリティ技術の飛行?

    確かに!2023年はメタバースを少し早く埋めました、ここで彼らは再びトラックにいます。特に、オブジェクト、建築、さらには都市全体のすべての詳細をミリメートルに押し上げられた精度で再現することを可能にする企業のためのデジタルツインを通じて。このテクニックは、画像にデジタルクローンを作成することも提供します。最初のバーチャルインフルエンサーは2023年末にソーシャルネットワークに登場し、一般の人々や、これらの超現実的なアバターを「社会的相互作用の聖杯」と見なす広告主からの関心の高まりを喚起しました。

    予想される別の技術革命:想像を絶する複雑さの計算を可能にする量子コンピューティング

    しかし、注意:専門家は、不可侵のオンライン暗号、絶対確実な天気予報を実行するために、新薬、新しい材料を発見することが期待される、この究極のコンピュータに関する法外なメディアの誇大宣伝を非難します。かなりの進歩にもかかわらず、量子技術には10年間の集中的な研究が必要です。一方、マイクロソフトやグーグルなどの大手ハイテク企業は、この分野への多額の投資を期待しており、これらの技術を習得することで2029年までに25億ドルの利益を記録しています。

    https://www.rfi.fr/fr/podcasts/un-monde-de-tech/20240103-déjà-demain-les-grandes-tendances-tech-de-2024

  • フランス、ドイツ、イタリアは、AI規制のための共通のアプローチに合意する

    フランス、ドイツ、イタリアは、AI規制のための共通のアプローチに合意する

    フランス、ドイツ、イタリアは、人工知能をどのように規制すべきかについて合意に達し、欧州レベルでの交渉を加速させると予想されている。

    週末に発表された共同論文で、3カ国の政府は、幅広いアウトプットを生み出すように設計されたいわゆるAIの基礎モデルの「行動規範による強制的な自主規制」を支持することに合意したが、「未検証の規範」には反対している。

    「私たちは一緒に、AI法が技術ではなくAIの応用を規制していることを強調する」と共同論文は述べた。

    「固有のリスクは、技術自体ではなく、AIシステムの応用にあります。」

    欧州委員会、欧州議会、EU理事会は、このトピックについてブロックがどのように位置づけるべきかを交渉しています。

    ChatGPTなどのジェネレーションAIプラットフォームは、人間のような言語で質問、さらには複雑な質問に答えることができるように、膨大な量のデータで訓練されています。

    また、画像の生成と操作にも使用されます。

    しかし、この技術は、「ディープフェイク」画像で人々を脅迫することから、画像や有害な偽情報の操作まで、その誤用の危険性に関する警告を引き起こしました。

    制裁ではなく「行動規範」

    この論文は、基礎モデルの開発者は、機械学習モデルに関する情報を提供するために使用されるモデルカードを定義する必要があると説明しています。

    「モデルカードには、モデルの機能、能力、限界を理解するための関連情報が含まれなければならず、開発者コミュニティ内のベストプラクティスに基づいている」と論文は述べた。

    「AIガバナンス機関は、ガイドラインの策定に役立ち、モデルカードの適用を確認することができる」と共同論文は述べた。

    当初、制裁は課されるべきではありません。

    ただし、一定期間後に行動規範の違反が特定された場合、制裁システムが設定される可能性があります。

    開発ではなく、AIアプリケーションの規制

    デジタル省とともにこのトピックを担当するドイツの経済省は、法律と国家管理はAI自体を規制すべきではなく、その適用を規制すべきだと述べた。

    Volker Wissingデジタル担当大臣は、AIの使用のみを制限するというフランスとドイツとの合意に達したことを非常に嬉しく思います。

    「世界中のトップAIリーグでプレーしたい場合は、技術ではなくアプリケーションを規制する必要がある」とウィッシングは言った。

    世界中の政府がAIの経済的利益を捉えようとしているため、英国は11月に最初のAI安全サミットを開催した。

    ドイツ政府は、月曜日と火曜日にテューリンゲン州のイエナでデジタルサミットを開催し、政治、ビジネス、科学の代表者が集まります。

    ドイツとイタリアの政府が水曜日にベルリンで会談を行う際には、AIを取り巻く問題も議題になります。

    先週、フランスのデジタル開発大臣ジャンノエル・バロは、OpenAIの元責任者であるサム・アルトマンを招待した。

    「サム・アルトマン、彼のチーム、そして彼らの才能は、私たちが人工知能を共通の利益に奉仕するために加速しているフランスで望むなら歓迎される」とバロットは土曜日にソーシャルメディアに書いた。

    この招待は、フランスでのAIの開発に関する重要な発表の翌日に行われました。

    2人の大ボス、ザビエル・ニエル(イリアド)とロドルフ・サーデ(CMA CGM)は金曜日、パリで「キュタイ」と呼ばれる研究所を設立し、3億ユーロを寄付したと発表した。

    https://www.rfi.fr/en/science-and-technology/20231120-france-germany-and-italy-agree-on-common-approach-for-ai-regulation

  • 危機にあるOpenAI、応答のない人工知能

    危機にあるOpenAI、応答のない人工知能

    「サムがCEOとしてOpenAIに戻ることを原則として合意しました」[…]「私たちは詳細に取り組んでいます。この間、あなたの忍耐に感謝します。シリコンバレーの危機の終わり、それとも人工知能部門の主要家庭の始まり?この分野の旗艦であるOpenAIは、人工知能の将来の進歩を持続的に示す可能性が高い波乱に満ちた日々を経験しました。

    しかし、ChatGPTとDall-Eの有望なスタートアップクリエイターであるOpenAIの経営陣はどうなりましたか?11月17日金曜日、その管理委員会は、カリスマ的な創設者サム・アルトマンを解任することを決定したと発表した。この突然の解雇の理由はまだ不明です。生成人工知能は、日常言語で簡単な要求に応じてテキスト、画像、音を生成することを可能にします。それはインターネットの出現に匹敵する革命と考えられている。サム・アルトマンが創設者の一人であるOpenAIは、マイクロソフトを主要な数十億ドルの投資家とするマーケットリーダーです。彼はあまりにも熱心になっていましたか、それとも面倒でしたか?解雇の数日前、彼の会社の最新のイノベーションのプレゼンテーション中に、彼は言った:「私たちはより多くのことを行い、より多くを創造し、より多くを持つことができるでしょう。人工知能はどこにでも統合されているので、私たちは皆、オンデマンドの超大国を持つことになります。」

    創設者の野心とAI分野の進歩は、制約されるに値しましたか?この驚きの立ち退きは、1985年にスティーブ・ジョブズがアップルによって解雇されたことを彷彿とさせ、彼は数年後にリーダーシップを引き継いだ。この解雇を確定するための週末の交渉は、そのような会社が技術を「単純な」開発者の手に委ねるか、イーロン・マスクのカリスマ的なリーダーの覇権下に置くジレンマを強調した。AIは否定できない技術に基づいていますが、強力なマーケティングレバーのおかげでもあります。OpenAIはサムなしでできますか?

    ハイテク企業間のポーカーゲーム

    週末を通して、交渉は彼の帰国または別のハイテク企業への到着を検討し始めました。それは自撮りに基づくソーシャルネットワークでのショーで、軽率さの限界で疑問を投げかけました…テーブルの上にほとんど明らかなドルの山を持つハイテク企業間のポーカーゲーム。したがって、自我と権力の危機から逃れることはできない人工知能部門のわいせつまたは将来の課題?この分野のすべてのビッグネームは、このテーマについて意見を述べています。もちろん、マイクロソフトの上司、陰謀または真実検索モードのイーロン・マスク、そしてシリコンバレーの多くの心配している従業員。誠実な議論やエゴの危機、その問題は専門家の間で生じた。

    来るべき財政的利害関係は膨大です

    11月20日月曜日:マイクロソフトはサム・アルトマンの膝の到着を発表しました。同時に、OpenAIの従業員(700人中500人以上)は反乱を起こし、生涯の上司と一緒に去ると脅しています。サム・アルトマンは、会社とAIの有望な始まりを体現しており、マイクロソフトで彼に従うことを計画しているのは会社の従業員のほとんど全員です。「新しい」OpenAIのリーダーたちは、競争から抜け出す方法を探しているようだ。サム・アルトマン、マイクロソフト、OpenAI管理委員会にとって、来るべき財務利害関係は莫大です。 非営利ベースで始まったこの会社の「ビジネスモデル」は、それが引き起こすお金の巨大な約束によって揺さぶられ、揺らぐ。Dall-EのようなChatGPTの未来はそれにかかっている。

    混沌は深い傷跡を残すだろう

    11月21日火曜日:サム・アルトマンは、マイクロソフトのボスであるサティヤ・ナデラの支援を受けて、「新しい取締役会とサティヤの支援により、OpenAIに戻り、マイクロソフトとの強力なパートナーシップを構築することを楽しみにしています」と発表します。マイクロソフトで彼に従った元取締役会会長の同僚であるグレッグ・ブロックマンも彼の復帰を発表しました。

    OpenAIは非営利団体として2015年に設立されました。それ以来、スタートアップはマイクロソフトと提携し、マイクロソフトは数十億ドルを投資し、ITインフラストラクチャへのアクセスを提供し、これまで以上に効率的なAIモデルを開発できるようにしました。コンピュータ大手は、元の財団が管理するOpenAIの民間支店の少数株主でもあります。「マイクロソフトは、伝説に残るポーカーショットですべてを取りました。マイクロソフトはAIにおいて以前よりもさらに強い立場にある」とウェドブッシュ証券のアナリスト、ダン・アイヴスは述べた。

    サティア・ナラヤナデラ、マイクロソフトのCEO。ロイター - ルーカス・ジャクソン
    サティア・ナラヤナデラ、マイクロソフトのCEO。ロイター – ルーカス・ジャクソン

    そして、サム・アルトマンがOpenAIに戻ったとき、マイクロソフトのサティア・ナデラCEOは釘を打つ:「マイクロソフトの大規模なサポートなしにOpenAIはありません。私たちは彼らの独立を愛していますが…私たちはすべての財産権を持っています。明日、OpenAIが消えた場合、お客様の誰も心配する必要はありません。私たちは、それらを配布するだけでなく、革新を継続するすべての権利を持っています。最近の混乱は深い傷跡を残すだろう。ここ数ヶ月、OpenAIはAIの分野で規制を求めているようですが、この分野の議論の余地のないリーダーとして、この種の交渉には少し適している。AIの世界では、オッペンハイマー効果について話します。創造者は自分の発明の能力に圧倒されます。サム・アルトマンは代償を払ったのか?OpenAIのリーダーはもはや満場一致ではありません、私たちはちょうど気づきました。AIの次の規制は、この分野のすべてのアクターとそのユーザーにとって重要な問題のままです。

    https://www.rfi.fr/fr/technologies/20231122-openai-en-crise-l-intelligence-artificielle-en-manque-de-réponse

  • フランス、ドイツ、イタリアは、AI規制のための共通のアプローチに合意する

    フランス、ドイツ、イタリアは、AI規制のための共通のアプローチに合意する

    フランス、ドイツ、イタリアは、人工知能をどのように規制すべきかについて合意に達し、欧州レベルでの交渉を加速させると予想されている。

    この写真は、GoogleとChatGPTが開発した会話型人工知能ソフトウェアアプリケーションであるBard AIのロゴを表示する画面を示しています。AFP - LIONEL BONAVENTURE
    この写真は、GoogleとChatGPTが開発した会話型人工知能ソフトウェアアプリケーションであるBard AIのロゴを表示する画面を示しています。AFP – LIONEL BONAVENTURE

    週末に発表された共同論文で、3カ国の政府は、幅広いアウトプットを生み出すように設計されたいわゆるAIの基礎モデルの「行動規範による強制的な自主規制」を支持することに合意したが、「未検証の規範」には反対している。

    「私たちは一緒に、AI法が技術ではなくAIの応用を規制していることを強調する」と共同論文は述べた。

    「固有のリスクは、技術自体ではなく、AIシステムの応用にあります。」

    欧州委員会、欧州議会、EU理事会は、このトピックについてブロックがどのように位置づけるべきかを交渉しています。

    ChatGPTなどのジェネレーションAIプラットフォームは、人間のような言語で質問、さらには複雑な質問に答えることができるように、膨大な量のデータで訓練されています。

    また、画像の生成と操作にも使用されます。

    しかし、この技術は、「ディープフェイク」画像で人々を脅迫することから、画像や有害な偽情報の操作まで、その誤用の危険性に関する警告を引き起こしました。

    制裁ではなく「行動規範」

    この論文は、基礎モデルの開発者は、機械学習モデルに関する情報を提供するために使用されるモデルカードを定義する必要があると説明しています。

    「モデルカードには、モデルの機能、能力、限界を理解するための関連情報が含まれなければならず、開発者コミュニティ内のベストプラクティスに基づいている」と論文は述べた。

    「AIガバナンス機関は、ガイドラインの策定に役立ち、モデルカードの適用を確認することができる」と共同論文は述べた。

    当初、制裁は課されるべきではありません。

    ただし、一定期間後に行動規範の違反が特定された場合、制裁システムが設定される可能性があります。

    開発ではなく、AIアプリケーションの規制

    デジタル省とともにこのトピックを担当するドイツの経済省は、法律と国家管理はAI自体を規制すべきではなく、その適用を規制すべきだと述べた。

    Volker Wissingデジタル担当大臣は、AIの使用のみを制限するというフランスとドイツとの合意に達したことを非常に嬉しく思います。

    「世界中のトップAIリーグでプレーしたい場合は、技術ではなくアプリケーションを規制する必要がある」とウィッシングは言った。

    世界中の政府がAIの経済的利益を捉えようとしているため、英国は11月に最初のAI安全サミットを開催した。

    ドイツ政府は、月曜日と火曜日にテューリンゲン州のイエナでデジタルサミットを開催し、政治、ビジネス、科学の代表者が集まります。

    ドイツとイタリアの政府が水曜日にベルリンで会談を行う際には、AIを取り巻く問題も議題になります。

    先週、フランスのデジタル開発大臣ジャンノエル・バロは、OpenAIの元責任者であるサム・アルトマンを招待した。

    「サム・アルトマン、彼のチーム、そして彼らの才能は、私たちが人工知能を共通の利益に奉仕するために加速しているフランスで望むなら歓迎される」とバロットは土曜日にソーシャルメディアに書いた。

    この招待は、フランスでのAIの開発に関する重要な発表の翌日に行われました。

    2人の大ボス、ザビエル・ニエル(イリアド)とロドルフ・サーデ(CMA CGM)は金曜日、パリで「キュタイ」と呼ばれる研究所を設立し、3億ユーロを寄付したと発表した。

    https://www.rfi.fr/en/science-and-technology/20231120-france-germany-and-italy-agree-on-common-approach-for-ai-regulation

     

  • ブレッチリーパークでの人工知能サミット:ヨーロッパのチャンピオンはどこにいますか?

    ブレッチリーパークでの人工知能サミット:ヨーロッパのチャンピオンはどこにいますか?

    人工知能は懸念と同じくらい貪欲さを呼び起こします。11月1日と2日にブレッチリーパークでサミットが開催され、政治指導者、技術代表者、研究者が集まるのは、この技術に関連するリスクを管理する方法を知ることです。Aファースト。

    アグニェシュカ・クモール

    その場所は偶然に選ばれたのではない。ロンドンから50分のイングランドの中心部に位置する赤レンガの大邸宅は、第二次世界大戦中に英国の復号センターをホストしました。これは、1939年8月にポーランド人がフランスとイギリスの同盟国に部分的な復号化とエニグマのレプリカを送った後、ドイツのエニグママシンの有名なコードが解読された場所です。

    したがって、ブレッチリーパークでの会議は、ヨーロッパ人がAIであるこの技術革命の一部になるつもりであることを意味します。アメリカや中国のグループと競争することを熱望しているこれらのヨーロッパの新興企業は誰ですか?

    MobiDev、ミストラルAIまたはボロコプター…これらの名前は何も教えてくれないかもしれませんが、彼らはヨーロッパのAIチャンピオンです。2023年3月、グルノーブルに拠点を置くビジネスインテリジェンスプラットフォームであるSkopaiの報告によると、5,000以上のAI専門新興企業がヨーロッパ大陸に設立されました。すべてのセクターが懸念しています。マーケティング、販売、人事から始まり、別のグループを代表する健康まで。その後、金融とサイバーセキュリティ、そして最後に都市開発、モビリティ、ロボット工学などの産業ソリューションが来ます。

    ヨーロッパ人は革新的な新興企業に依存している

    彼らは遅れをとっていますが、ヨーロッパ人は現在、この技術に代表される経済的可能性を最大限に活用するために革新的な新興企業を頼りにしています。2022年、イギリス、フランス、ドイツは、公的であろうと私的であろうと、AIに最も多くの資金を投資した。英国のトップ50企業(出典:TechEmergent)には、特に、AI、若い新興企業または一般的に「ビッグデータ」として知られるビッグデータに特化したシグマデータシステムの出現を促進するタレントソフトウェアを使用したアプリケーションの作成者であるMobiDevがあります。

    France Digitaleが実施したマッピングによると、フランスでは600近くのAIスタートアップが成長し、その60%はイル=ド=フランスです。彼らの半分はすでに利益を上げているか、3年以内に利益を上げる予定です。特に、私たちはミストラルAIを見つけます。2023年6月にGoogleとMetaが通過した3人の研究者によって設立されたこのスタートアップは、自由に再利用可能な最初の生成人工知能プログラムを発表しました。Dataikuは、データサイエンスの使用と企業における人工知能へのアクセスを民主化したいもう一つのナゲットです。このエコシステムでは、臨床研究に適用される人工知能技術を専門とするフランス系アメリカ人の新興スタートアップであるオウキンについても言及しましょう。言うまでもなく、LightOnは、ビデオを要約し、コンテンツを書き、会議を書き起こす「パラダイム」と呼ばれるプラットフォームのおかげで、ChatGPTに挑戦することができます…この唯一の目的:企業の生産性を高めることです。

    最後に、今年最も多くの資金を調達することに成功したドイツの新興企業の中には、空飛ぶタクシーを開発および生産するVolocopter、専門的かつ個人的なオンラインコーチングの専門家であるCoachHub、そして防衛に適用されるAIの分野で主要なプレーヤーとしての地位を確立したHelsingがあります。さらに、ベルリンはAI研究のための150の新しい大学研究所を創設し、半導体に200億ユーロを投資する予定です。

    ヨーロッパの資金不足

    主にガファムと中国が支配するこの風景では、ヨーロッパには研究者がいますが、AIに関連する計算を加速するための半導体が残酷に不足しており、何よりもお金が不足しています。バーシーのデータによると、2022年に米国はAIに500億ユーロ、中国に100億ユーロ、EUに50億ユーロを投資し、大西洋を渡るライバルの10倍少ない。

    しかし、AIの巨大な変革力を考えると、EUはそれを産業政策の中心に置かなければならない、とパリは言う。10月30日にローマで開催されたフランス、イタリア、ドイツが人工知能の分野での協力を強化することを決定した最近の会議で、フランスの経済大臣ブルーノ・ル・メールは「ヨーロッパの目覚めが必要だ」と叩いた。「危機に瀕しているのはヨーロッパの主権だ」とフランスの大臣は言った。

    ブレッチリーパークサミットのイニシアチブで、英国はAIに関する国際協力の原動力になりたいと考えています。セクターの規制に同意しない場合、サミット参加者は少なくとも今後のリスクについて共通の理解を達成したいと思うでしょう。

    https://www.rfi.fr/fr/économie/20231101-sommet-sur-l-intelligence-artificielle-à-bletchley-park-où-sont-les-champions-européens

     

  • 政治と技術のリーダーは、最初のサミットでAIの安全性に取り組む

    政治と技術のリーダーは、最初のサミットでAIの安全性に取り組む

    Bletchley Park (イギリス) (AFP) – 英国のリシ・スナク首相は木曜日、第1回グローバルAI安全サミットで政治および技術リーダーを主催し、この技術が今後何世代にもわたって社会を根本的に変えると予測した。

    日常の言語で簡単なコマンドからテキスト、画像、オーディオをすばやく生成できるChatGPTやその他の生成AIシステムのリリースは、一般の人々を魅了し、技術の可能性を垣間見せました。

    しかし、彼らはまた、失業からサイバー攻撃、そして人間が実際にシステムに対して持っているコントロールに至るまでの問題に関する懸念を促しました。

    ロンドン北部のブレッチリーパークでの2日間のサミットは、28カ国と欧州連合が署名した協定の発表で水曜日に始まり、「国際的な行動が必要」を認めた。

    しかし、木曜日は、急速に進化する技術によって提示される最も差し迫ったリスクに対処するために、主要国が正式に集まる時です。

    カマラ・ハリス副大統領、イタリアのジョルジア・メローニ首相、EU長官ウルスラ・フォン・デア・ライエン、アントニオ・グテーレス国連事務総長は、フランス、ドイツ、オーストラリアなどの政府の代表者と協力して、今後5年間のAIの世界的な優先事項について話し合います。

    ダウニング街のオフィスによると、Sunakは「AIの機会をつかむためにリスクに対処するための世界的な責任を主張する」ことが期待されている。

    中国は初日に招待され、出席したが、2日目には招待されず、より敏感な議論が行われる。

    木曜日の第2セッションには、OpenAI、Anthropic、Google DeepMind、MicrosoftなどのAIの最前線にいる企業とともに、学界や市民社会の代表者が参加します。

    AIを構築しているのは誰ですか?© Nicholas SHEARMAN / AFP

    「AIのような技術の進歩ほど、私たちの子供や孫の未来に変革をもたらすものはないと信じています」とSunakは言いました。

    「英国はAIの安全性に関するこの世界的な会話をリードしてきたが、どの国も単独でリスクに取り組むことはできない」と彼は付け加えた。

    マスク警告

    来年、韓国とフランスでさらなるAI安全サミットが開催される予定で、米国と英国は今週、最先端のAIモデルのリスクを調査および評価する機関の設立を発表しました。

    英国のミシェル・ドネラン技術大臣は水曜日にAFPに、サミットは「世界的な法律の青写真を作成するようには設計されていません」と語った。

    カマラ・ハリス米国副大統領は、AIが発展するにつれて協力を促した © Daniel LEAL / AFP

    しかし、彼女は代わりに「フロンティアAIのリスクをよりよく処理し、理解できるように、前進する道を築くように設計されている」と述べた。

    ChatGPTのような主流のAIアプリケーションの最初の波は、しばしばフロンティアAIと呼ばれます。

    SpaceXとテスラのCEOイーロン・マスクは両日に出席し、このイベントを「タイムリー」と表現した。

    「これは私たちが直面する実存的なリスクの1つであり、タイムスケールと進歩率を見ると、潜在的に最も差し迫ったものです。サミットはタイムリーであり、私はそれを開催した首相に拍手を送ります」と彼は言いました。

    SunakとMuskは、木曜日にイベントが終了した直後にロンドンで共同Q&Aセッションを開催する予定です。

    ローマでは、イタリア、ドイツ、フランスの閣僚は、米国と中国に挑戦するためにより多くの投資を促し、ヨーロッパでAIを規制するための「革新に優しいアプローチ」を求めた。

    (AFP)

    https://www.rfi.fr/en/international/20231102-political-and-tech-leaders-tackle-ai-safety-at-inaugural-summit

     

  • フランスの実業家が人工知能へのメガ投資を発表

    フランスの実業家が人工知能へのメガ投資を発表

    イリアス技術グループのオーナーであるフランスの実業家ザビエル・ニールは火曜日、人工知能(AI)の「ヨーロッパのチャンピオン」を生み出すために設計された戦略的投資を発表しました。

    2億ユーロと推定され、この投資はスーパーコンピュータの購入と専用の研究所の創設に充てられると、ニールは火曜日にフランスの通信社AFPに語った。

    このアイデアは、現場で独自のアプリケーションを開発したい企業に幅広いサービスを提供できるようにすることです。

    これは、ヨーロッパの人工知能の競争で米国に追いつき、アメリカの巨人グーグル、マイクロソフト、メタが費やした数十億ドルに匹敵するものです。

    「人工知能が機能するためには、研究者、コンピューティングパワー、そしてそのすべてを利用する企業の3つのことが必要だ」とニールは言った。

    EUはスーパーコンピュータの容量を増やしたい AFP
    EUはスーパーコンピュータの容量を増やしたい AFP

    「AIがここで作成されておらず、ヨーロッパではないアルゴリズムに依存しないように、すべてのデータが他の場所に行かないように、本当に必要です」と彼は説明しました。

    この目標を達成するために、Iliadはアメリカのプロセッサ大手であるNvidiaからスーパーコンピュータを買収し、クラウドコンピューティングサービスプロバイダーの子会社であるScalewayに大陸で「最大のコンピューティングパワー」を提供しました。

    イリアスはまた、火曜日に「人工一般知能」の構築と民主化を使命として、すでに「1億ユーロ以上」に恵まれたパリのAIの卓越した研究所の創設を明らかにした。

    同社は研究チームの名前を明らかにしていませんが、すでにこの分野での専門知識で「国際的に認められた」研究者のグループを形成し、すでに「市場で最大の国際プレーヤーの中で約10年間」働いていると主張しています。

    イリアスはまた、ヨーロッパでこのテーマに関する「ベンチマーク年次イベント」になることを目的としたAIに関する最初のヨーロッパ会議を開催します。

    初版は、2017年にニールによって設立されたパリの世界最大のスタートアップインキュベーターであるステーションFで11月17日に開催される予定です。

    (AFPと)

    https://www.rfi.fr/en/business/20230926-french-businessman-announces-mega-investment-in-artificial-intelligence

  • 人工知能:ウェブの巨人間の競争が激化している

    人工知能:ウェブの巨人間の競争が激化している

    人工知能をめぐるガファム(グーグル、アップル、フェイスブック、アマゾン、マイクロソフト)間の競争が激化している。Amazonは9月25日、ChatGPTと競合するチャットボットであるClaudeを開発したアメリカの企業であるAnthropicに40億ドルを投資すると発表した。

    マイクロソフト、メタ、グーグル、Nvidiaの後、アマゾンは急成長しているセクターである人工知能の分野で次のレベルへの一歩を踏み出しています。

    Googleパートナーの1つであるAnthropic社は、2年前に元Open AIの従業員によって設立されました。したがって、Amazonは、世界最大のクラウド企業であるAmazon Web Serviceのチップを利用できるようにすることで、Anthropicの少数株式を取得します。

    したがって、AmazonのウェブサービスのユーザーがアクセスできるClaudeの新しいモデル、Anthropicのチャットボットの開発との戦略的パートナーシップ。

    いわゆる「生成的」人工知能、つまり学習データから新しいコンテンツを生成することができることは、貪欲さを助長すると言わざるを得ありません。インターネットの巨人であるガファムは、この分野の新興企業に多額の投資をしています。最近、Amazonは仮想アシスタントAlexaに人工知能が搭載されることを発表しました。AIをBing検索エンジンに統合しようとしているMicrosoftも同様です。

    https://www.rfi.fr/fr/économie/20230925-intelligence-artificielle-la-concurrence-entre-les-géants-du-web-s-intensifie

  • 人工知能の気分

    人工知能の気分

    1950年代以降、人工知能は重要な知的および技術的な道を歩んできました。私たちはそのピークを目の当たりにしていますか、それとも新しい時代の始まりを目の当たりにしていますか?AI、サイバネティックス、ブラックボックス、ニューラルネットワーク、模倣…私たちは本当に私たちが話していることを知っていますか?HEAD-ジュネーブ(芸術とデザインの高校)の准教授であるAnthony Masureと、AIの気分の明確化。

    コンピュータと思考の関係は、その開始以来、コンピュータサイエンスを悩ませてきました。体と心(ハードウェア/ソフトウェア)の哲学的区別を発作に追い込むことで、アラン・チューリングは電子脳の可能性を検討するようになる。彼は機械が考えることができるかどうか疑問に思うが、コンピュータが模倣に基づくゲームで人間の場所を保持できることを実証している。1950年、チューリングと国立物理研究所のチームは、最初のプログラマブルマシンの1つである自動コンピューティングエンジンを公開しました。このマシンは、50%のランダムレートを超えて尋問者を阻止することに成功した場合、いわゆる人間の知性を示します。機械の内部機能の理解に関係なく、それはシミュレーションです。

    チューリングでは効率が技術システムの明瞭度よりも優先されるため、「ブラックボックス」と呼ばれるこの内部操作に光を当てる必要があります(私たちは以前にテリー・ギリアムの映画ブラジルを参照して「機械の幽霊」について話していました)。要するに、私たちはそれがどのように機能するかを理解しようとはしません。それは十分に機能します。

    最近のAIモデルの強みと限界をよりよく理解する

    ブラックボックスの概念は、とりわけ行動主義に現れます。これは、人間の精神を心配することなく、環境と行動の間の統計的関係を研究する方法です。ブラックボックスに似た個人(私たちは知らないし、内部で何が起こっているのかを知る必要はありません)は、彼の環境の結果です。彼の入力と出力を分析するだけで十分です。サイバネティックスでは、機械(コンピュータ)は、このブラックボックスのアイデアを介して人間の脳に匹敵できるという考えを取り入れていますが、行動主義には存在しないフィードバックの概念があります。

    フィードバックは、特定の状況を制御するための入出力データの動的調整です。サイバネティックス – 制御の科学(kubernétes) – は、例えば、人間の介入なしに、リアルタイムでミサイルの軌道を調整することを可能にします。その原則は、エンジニアやデザイナーによって実装された多くのコンピューティング、インターフェース、インタラクションシステムを決定しました。この重要なポイントにより、最近のAIモデルの強みと限界をよりよく理解することができますが、AIへの道を続けましょう…

    人工知能という表現は1955年にさかのぼります。「学習のすべての側面または知性の他の特性は、原則として、機械をシミュレートするために構築できるほど正確に記述することができます」と数学者のジョン・マッカーシーは述べています。シミュレーションはチューリングにとって大切なものですが、AIとその研究は常に帆に風があったわけではありません。1974年から1980年の間に、AIの最初の冬の話さえありました。1982年、物理学者ジョン・ホップフィールドは、ニューラルネットワークがまったく新しい方法で情報を学習し、処理できることを実証しました。Yann Le Cunの研究は、ニューラルネットワークの軸を再開し、象徴的なアプローチよりも効果的であることが証明されます。この最後のアプローチは、AI(1987-1993)の第二の冬に対応しています。エキスパートシステム(認知能力を模倣するはずの意思決定支援ツール)は、出口を見つけていません。

    これは、混乱が心の中で落ち着くことができる場所です:コネクショニストアプローチの技術は、今日、一般大衆の心の中で、人工知能のはるかに広い概念と混同するために必要です。機械学習から派生したディープラーニング、ディープラーニングという用語は、機械が単独で学習することを目指す方法を指します。人間が事前に決定したルールを実行するシンボリックロジックの伝統的なプログラミングとは異なり、ディープラーニングは、人間の脳に触発された人工ニューロンの層のネットワークに基づいており、バックプロ伝播プロセスを介して複雑なデータを処理します。開始データは不可欠です。システムが蓄積すればするほど、より効率的になるはずです。それは統計です。現在使用されているのはAIです。エキスパートシステム、または狭いAI、つまり潜在的に非常に有能なコンピュータシステムですが、制限されたコンテキストでのみ動作し、多くの場合、特定のタスクに焦点を当てています。ここで非網羅的で目まぐるしいリスト。

    エキスパートシステムの印象的なリスト。© https://www.futuretools.io/
    エキスパートシステムの印象的なリスト。© https://www.futuretools.io/

    オフボタンを押して意味を見つけてください

    恐怖、そして現在の議論に入るのは、強力なAI、人工超知能、つまり、事実上すべての分野で人間の能力よりもはるかに優れた知的能力を持つAIの仮説です。しかし、これはそれが起こるかもしれないという恐れを持って信念の分野に残っています。

    AIのこの道で、エッセイDesign sous artifice: la création à risque du machine learning (2023)の著者であるHEAD-ジュネーブの准教授であるアンソニー・マシュアは、この文を指摘しました:「[…]その意味を与えるものは、私たちが機械を止める瞬間です。彼女は精神分析家ジャック・ラカン出身で、決定的と思われる機械のこの状態(その停止)を表現しています。主題にとって、機械の停止から意味が出てくる場合、総機械(連続操作の論理で設計された)は、したがって、新しい意味をもたらすために創造的であることができませんでした。

    意味を見つけるために、時々オフボタンを押す必要があります。

    ボタンを押してください!© DAL.E 2によって生成された画像
    ボタンを押してください!© DAL.E 2によって生成された画像

    アラン・チューリングの仕事から現在までの人工知能の進化における重要な瞬間

    彼によると、私たちはまだAIの重要な日付についてChatGPTエキスパートシステムに尋ねるためにONを押しました。

    「これは、アラン・チューリングの仕事から現在までの人工知能の進化における重要な瞬間の要約です。

    1. 1950年代:アラン・チューリングは、人間と区別できない知的な行動を示す機械の能力を評価することで構成されるチューリングテストを提案しています。
    2. 1950年代から1960年代:AI研究は主に論理的および象徴的なルールに焦点を当てています。LISPプログラミング言語が開発され、この分野の主要なツールとなっています。
    3. 1970年代:AIの分野は、技術的な制限と残念な結果のために、「AIの冬」として知られる悲観主義の時期を経験しています。
    4. 1980年代:専門知識に基づくAIアプローチが活況を呈している。特定の問題を解決するために知識ベースを使用して、エキスパートシステムが開発されています。
    5. 1990年代:人間の脳の機能に触発された人工ニューラルネットワークは、新たな関心を経験しています。機械学習アルゴリズムも開発されており、機械がデータから学習できるようにします。
    6. 2000年代:技術の進歩と大量のデータの可用性のおかげで、ディープラーニングとディープニューラルネットワークが人気が高まっています。機械は、音声認識や画像分類などの特定のタスクで人間を上回り始めています。
    7. 2010年代:AIは私たちの日常生活に遍在するようになる。SiriやAlexaなどのバーチャルアシスタントが広く使われています。AIの進歩は、自動運転、機械翻訳、戦略ゲームなどの分野でも見られます。
    8. 近年:GPT-3(私が拠点を置いている)などのAIベースの言語モデルは、自然言語処理とコンテンツ生成の大きな進歩を可能にします。AIアプリケーションは、健康、金融、サイバーセキュリティ、ロボット工学など、多くの分野で開発されています。」

    そして、ChatGPTはアルゴリズムのソファに快適に横たわって追加します。

    「人工知能の文脈では、ラカンの引用は、理解の過程における人間の解釈の重要性を強調していると解釈することができます。機械は自動化された方法で標識やデータを分析して処理することができますが、私たちがそれらに帰する意味は、しばしば私たちの解釈と理解によって決定されます。機械とアルゴリズムは、大量のデータを処理し、パターンを見つけるのに役立ちますが、多くの場合、人間の介入と解釈を通じて、これらの結果に深い意味を与えます。機械は情報を提供することができますが、個人的な意味と解釈はしばしば人間の手に残ります。最後に、ラカンの引用は、意味の過程における機械と人間の相互作用の重要性と、兆候の世界に意味を与えるための人間の反射と解釈の必要性を強調しています。」

    もしAIが分析を行ったら?© DALL.E 2によって生成された画像
    もしAIが分析を行ったら?© DALL.E 2によって生成された画像

    ありがとう、ChatGPT。オフを押します。

    https://www.rfi.fr/fr/technologies/20230611-les-états-d-âme-de-l-intelligence-artificielle

     

  • 人工知能:私たちは本当に何について話しているのですか?

    人工知能:私たちは本当に何について話しているのですか?

    1956年に米国で開始された人工知能(AI)は、ソーシャルネットワークからGPSナビゲーション、顔認識から医療診断や産業ロボット工学まで、私たちの日常生活に完全に投資しています…それは研究者、市民、または州の注意を魅了し、怖がらせ、独占しています。私たちが話していることを理解するには、基本に戻り、AIとは何か、その歴史、どのように機能し、何をもたらすことができるのか、そして何が危険なのかを説明しなければなりません。パリ・サクレー大学のコンピュータサイエンスの教授であり、デジタル科学学際研究所(LISN-Univ)の研究者であるNicolas Sabouretは、RFIの質問に答えます。

    1.RFI: 人工知能とは何ですか?

    ニコラ・サボレ:理解するためには、「人工知能」という用語の起源に戻らなければなりません。

    1950年代、英国の研究者アラン・チューリングは計算、特に計算可能性と複雑さの理論に取り組みました。コンピュータとコンピュータは情報処理の科学であり、情報変換は計算であることを覚えておく必要があります。規律の先鋒であるチューリングは、何が計算可能で、何が複雑かを定義しました。先見の明のある彼は、このような計算を行う機械が、いつかチェスをしたり、車を運転したり、人間が知性で行うタスクを実行したりできるようになると想像しました。彼は当時、「機械がこれを行うことができれば、「マシンインテリジェンス」について話すことができます。これはその後、「人工知能」、すなわち人工知能を与えたものです。

    チューリングの先見の明のある側面を超えて、理解すべき2つの重要なポイントがあります。1つ目は、研究者が機械が知的であると言うことはありません。機械は計算し、考えない。彼女は私たちよりも物事をうまくやっています、または少なくともいくつかの分野で私たちと同じくらいうまくやっています。しかし、彼女は知性ではなく、計算でそれをします。オランダの研究者エドガー・ダイクストラは、この素晴らしい文章を言った:「コンピュータが考えることができるかどうかを尋ねることは、潜水艦が泳ぐことができるかどうかを尋ねるのと同じくらい愚かです。この引用はすべてを要約しています。「人工知能」という用語をこのように理解すると、私たちはインテリジェントマシンについて話していないことを理解します。私たちは、計算を使って人間の能力を模倣し、再現することについて話しています。

    2番目のポイントは、計算の複雑さの概念です。チューリングは、いくつかの問題が機械によって複雑または実行不可能であることを理解していました。その後、彼は計算によってそれらを解決する方法を疑問に思いました。説明するために、例えば、チェスのゲームを考えてみましょう。1930年代、アメリカの数学者ジョン・フォン・ノイマンは、毎回勝つためにチェスの完璧なゲームを計算することを可能にするアルゴリズムを提案しました。しかし、これを達成するためには、10パワー120のオーダーである多くの操作を行う必要がありますが、これは不可能です。したがって、AI研究者は、正確な解決策を得ることができないことを知って、合理的な計算時間で解決策を探します。私たちは、ほとんどの場合、正しい結果を得るために緊密な解決策を作ることに同意します。人工知能では、ヒューリスティックについて話します。

    人工知能という用語は非常に誤解を招く。実際、完璧に機能させることができないことがわかっていても、ほとんどの場合機能するように問題を簡素化したのはコンピュータ計算です。

    2.AIはいつ生まれ、時間の経過とともにどのように進化しましたか?

    人工知能は、1950年にアラン・チューリングの「コンピュータ機械と知能」と題した記事の出版で始まり、その中で彼は「機械が考えることができる」かどうか疑問に思い、彼の有名なチューリングテスト、模倣のゲームを提起しました。

    「人工知能」という用語が最初に使用されたのは、研究者が米国のダートマス大学で出会った1956年でした。会議の主催者であるアメリカの数学者ジョン・マッカーシーは、チューリングの用語である「機械知能」という用語を保持しないことを決定し、「人工知能」の用語を選択しました。1950年代の終わりから、テレビ、ラジオ、新聞記事などのクリップを通じて「すべてを行うことができ、それが私たちの生活を変える」機械にクレイジーな発泡がありました。

    AIは1970年代初頭まで非常に人気がありました。しかし、結果はそこになく、熱意は低下し、AIは1980年代初頭まで最初の「冬」を経験しました。その後、人間の知性を模倣しようとする手書きのルールに基づく専門家のシステムでリバウンドがありました。それは5年間続き、息が下がった。これは1985年から2005年まで続くAIの2回目の冬です。

    確かに、1990年にIBMがディープブルーでAIへの打撃を回復しようとする試みがありました。しかし、カスパロフがすべての可能な動きを事前に計算できる機械の前に従うことができないことを人々が見たので、それはうまくいかなかった。その機械は本当に賢いですか?それはAIにはあまり役に立たなかった。

    2005年、AIを再び離陸させた2つの非常に信じられないことが起こりました。

    1つ目は、ビデオゲーム業界によるグラフィックカードの開発です。グラフィックカードは、同時に非常に迅速に非常に多くの加算と乗算を行う能力を持っています。

    1990年代、研究者のヤン・ル・クンとジョシュア・ベンジオは、うまく機能しているように見えるニューラルネットワークを提案しましたが、当時は持っていなかった計算手段が必要でした。2005年、彼らは「ディープラーニング」と題した記事を発表し、グラフィックスカードを使用すると、複数のレイヤーのニューロンを同時に計算し、2つのレイヤー以前よりも優れたパフォーマンスを発揮できると説明しました。それは機能し、ニューラルネットワーク技術は研究者を説得し始めた。

    2つ目は、ゲームの未解決の問題に取り組むための検索ユニットのGoogleによる作成です。彼らは、アルゴリズムのパフォーマンスを向上させるために、ニューラルネットワークを接続するために使用される古典的なアルゴリズムを使用します。囲盤ゲームは、マシンを自分自身と対戦させることができ、トレーニングできるため、面白いです。彼女は自分自身に対してうまくプレイすることを学ぶまで、自分自身に対して何百万ものゲームをプレイすることで、ニューラルネットワークのパラメータを全速力で自動的に調整します。古典的な計算技術とニューラルネットワークのこの混合物は、2015年に、現ゴー世界チャンピオンに対するAlphaGoの勝利につながった。このイベントはAIのテーマ全体を復活させ、人々はこの分野に再び投資しています。

    2015年以来、AIの冬は後退しておらず、ジャーナリストが一般大衆に放送するAIの限界に関する研究者の慎重なコミュニケーションのおかげであると思います。「注意してください、AIは毎回機能するわけではありません、それはすべてを行うことはできません、そして私たちはそれに取り組んでいます」、1960年代と1980年代とは異なり、10年後には

    その後、さまざまなニューラルネットワーク技術が開発され、特に今日話しているもの:「生成トランスフォーマー」アルゴリズム、ChatGPTやDall-Eなどの生成ネットワークを作成するために使用される生成トランス。

    3.私たちが日常生活で見つけるAIの応用分野は何ですか?

    AIはどこにでも隠されています。郵便で手紙を送るとき、選別機はAIアルゴリズムを使用して郵便番号を読み取ります。これは早くも1990年代です。別の例:なぜエレベーターは正しい階でゆっくりと止まるのですか?エレクトロニクスに組み込まれたAIアルゴリズムのおかげで。

    毎日使用されているAIアルゴリズムがあります。1つ目は、Googleのような検索エンジンを介した情報の検索です。それから、GPSナビゲーション補助があります。そしてソーシャルネットワーク:多くの人々はそれを全く認識していませんが、彼らに投稿を提供するアルゴリズムはAIです。リアーナの投稿が気に入ったら、ジャスティン・ビーバーの投稿が気に入るでしょう。たとえば、新しい靴を検索する場合、Instagramアカウントで靴の広告を提供するAIアルゴリズムです。

    4.AIを使用する他の分野は何ですか?

    医学では、医療診断に役立つツールが20年間開発されており、かなりうまく機能しています。しかし、それらを実践することの難しさは、すべての情報を機械に入力するために必要な時間によるものです。一般開業医は、彼を聴診することによって患者を診断することができる間、本当にすべての情報を入力するのに30分を費やしたくありません。

    一方、自動画像認識アルゴリズムは、人間と機械の間の真の補完的な使用を可能にします。マシンは、ファイル全体を持っている医師が確認できるかどうか、画像に対して一種の事前診断を行います。

    これらのことが整い始めており、数年後には、医療の文脈でAIを使用してスマートなことをすることに本当に成功すると思います。

    AIは意思決定ツールにも使われています。配水会社は、実際に実装する前に、AIを使用して配水ネットワークに関する仮説をテストします。または、EDFはAIアルゴリズムを使用して負荷曲線を生成し、家計消費がどのように進化するかを研究することを可能にします。これらのAIアルゴリズムは、人間が行うことを再現します。これは、AIの人間のシミュレーション部分が役立つ場所です。

    一般には見えないAIのもう一つの大きな進歩は、広く使用されていますが、健全な処理に関するものです。今日、すべてのサウンド処理システムにAIアルゴリズムがあり、ラジオやDVDなどで非常に高品質のサウンドを持つことができます。

    AIはまた、大量の天文データを保存、保存、検索、整理できるようにすることで、無形遺産(テキスト、画像、オーディオ)の保存に関連するすべてのものに革命をもたらします。

    AIは、生産ラインを最適化するために航空や産業界でも使用されています。

    5.AIはどのように機能しますか?

    最初のAI技術は、1970年代と1980年代に非常に人気があったルールライティングに基づいています。例えば、パリからマルセイユまで車で行く方法を尋ねると、あなたが従うステップを教えてください。「道路標識を見たら、右に曲がります。クマを横切ったら、当たらないようにブレーキをかける」など、プログラミングで人間の推論を再現するために、手でルールを書きます。

    これらのルールが書かれたら、それらを実装する計算技術があり、非常に信じられないほどの結果を得ることができます。ロボットが火星に送られるとき、彼らはルールベースのシステムで働きます。それはかなり適応性があり、私たちは起こることすべてをコントロールします。私たちはエラーをどこに置いたかを知っているので、行われた近似値を知っています。ロボットが間違っているとき、私たちはその理由を知っています。このタイプのタスクを実行するために提案されている自動診断と計画技術があり、それは非常にうまく機能します。

    2番目のAI技術は、フランス語で「機械学習」を意味する機械学習です。アイデアは、物事のやり方を機械に伝えることです。研究すべき重要な変数を決定し、これらの変数間のリンクを自動的に計算するよう機械に依頼します。彼は、欠損値があるプログラム構造が提供され、それが機能するための値を見つけるように求められます。

    私が与えたいイメージは、オーディオミキサーのイメージです。入り口でどんな音がしても、出口で同じ音を得るためにボタンの正しい位置を見つける必要があります。無限の可能性に直面して、マシンは、それが徐々にそれが可能な限り最高の出力を計算することを可能にするパラメータを調整できるように、それに多数の例を与えることによって訓練されます。すべてのボタンを少し動かすことで、ほとんどの場合、非常にうまく機能する値を見つけることになります。さらに、機械学習という用語はかなり選択が不十分です。現場の研究者はむしろ訓練について話します。

    今日最も広く使用されている機械学習技術は、人間のニューラルネットワークとは何の関係もないニューラルネットワークの技術です。フランク・ローゼンブラットが1957年に彼のマシンを作曲したときにそれに触発された場合、彼は人工ニューロンを作ったと主張したことはありません。

    人工ニューラルネットワークは、連鎖された加算と乗算の連続です。過去には、それを計算する機械がなかったため、一層ニューラルネットワークの作り方しか知りませんでした。今日、ディープネットワークは約10層で構成されており、あなたや私のようなコンピュータはこのタイプのニューラルネットワークを問題なく実行できます。3つの層から、私たちは「ディープラーニング」について話します。

    ニューラルネットワークはさまざまな方法で使用できます。トランスフォーマーを使用すると、ニューラルネットワークをトレーニングして、あらゆる概念を数値に変換し、別のニューラルネットワークのおかげで、テキスト、音声、または画像を生成する結果を生成します。画像を生成するAIに「教皇に白いダウンジャケットが欲しい」と尋ねると、彼女は数字の「教皇」と「白いダウンジャケット」という数字を組み合わせて、白いダウンジャケットを着た教皇の画像を作ります。

    ChatGPTもそのように機能します。彼はフランス語のすべてのテキストを与えられ、そこから人間が書くことができたものと非常によく似たテキストを生成することができました。一方、質問がばかげている場合、例えば「ウサギの卵について教えてください」、彼はウサギの卵について話します。彼はナンセンスを言うだろうが、彼はそれをとてもうまくやるだろう。ChatGPTの背後には小さな秘密があることを知っておくべきです:それは多くの文章と人間を生成するために作られました – 私たちは何千時間も何千人もの人間について話します – 尋ねられた質問に関連して可能な限り最も信頼できる答えにするために手で各文を修正しました。ChatGPTが人間のように話す印象を与えるために非常に強くなった、彼が人種差別的な発言をしない、または彼が「私は知らない」と言う方法を知っているのは、これらのむしろ恩知らずな「微調整」のタスクのおかげです。

    最後に、これら2つの技術の違いは、プログラミング時間の限界であり、したがって開発における人的コストです。実際には、これらの学習アルゴリズムは、コンピュータ科学者が手でコーディングすることで同時に行うよりもはるかに良い結果をもたらすことがよくあります。パラメータを調整する作業は退屈で、機械はそれを非常にうまくやっています。だからこそ、機械学習はうまく機能します。

    6.弱いAIと強いAIの違いは何ですか?

    私たちの日常使用に存在し、マスコミで話題になっているAIは、強力なAIのこの種の夢とは対照的に、すべて弱いAIです。また、強力なAIがすぐに到着すると想像する研究者はほとんどいません。

    強力なAIは、言語と人間の知性の問題を専門とする哲学者ジョン・サールによって提案された概念です。彼は、人工知能がお互いに全く異なる問題に対処することができれば、つまり車を運転したり、チェスをしたり、サンドイッチを作ったり、多くの異なることができるAIであれば、人間の知能に近いという点で「強い」と言えると言いました。

    したがって、私たちはむしろ、ますます複雑な問題を解決するために、さまざまな弱いAI技術を改善することで構成されるアプローチに取り組んでいます。各AIアルゴリズムは、非常に特定の問題のファミリーを解決し、他のコンテキストでは必ずしも再利用可能ではありません。例えば、チェスをとても上手にプレイするAIは、囲碁のゲームをプレイさせたい場合は、それを再訓練する必要があります。彼に車を運転するように頼むことはできない。そのためには、別のAIを使用する必要があります。

    7.いわゆるジェネレーティブAIの開発で何が変わりますか?

    私はジェネレーティブAIについて表現される恐怖に非常に懐疑的です。明らかに、教師として、生徒がより簡単にカンニングするのを見ることを心配することができます。ウィキペディアが出てきたとき、私たちは同じものを見ました。しかし、生徒は何も理解していなかったので、ページがコピーされたとき、教師はかなり早く話していました。追加レベルは、ChatGPTがウィキペディアのページを合成し、それをかなりうまく行うということです。私たちは、学生がさらに不正行為をするのを見ることを心配することができます。しかし、私はそうは思いません。それどころか、人々はChatGPTの使い方を教える必要があると思います。機械がすでによく準備された要素を生成し、やり直すことができるという考えは、ウィキペディアに行って情報を検索し、それを修正するときのようなものです。

    画像の側面では、画像操作の専門家でない限り、生成システムによって生成された画像をやり直すことができないので、私はより控えめです。だから、私たちは彼らをそのまま受け止めます、そして問題は、彼らが完全に間違っているとき、彼らは真実に見えるということです、彼らは現実を記述しません。テキストと同じくらい、人々はそれを少し慎重に受け止めます。しかし、私たちは、画像がメディアで見られる場合、それは真実であると考えることに慣れてきました。したがって、画像は機械の産物である可能性があることを認めなければなりません。これは私が恐怖を表現する人々と合流する場所です。

    生成AIアルゴリズムはまた、研究者が因果関係の概念などの他のAI問題を攻撃することを可能にします。これはキャプチャが非常に複雑で、現在は手で書くことを余儀なくされています。研究者としての私の視点から見ると、それは本当に私たちが進歩することを可能にする進歩です。一般市民の観点から、私はかなり懸念を聞いています。

    例えば、スーパーマーケットのレジ係を自動レジに置き換えると、バーコードを読んだり、スケールに置いた果物を認識したりするためのAIが確かにあります。しかし、レジ係の仕事の喪失は技術の問題ではなく、社会の選択の問題です。そして、これらのツールの展開の犠牲者になる人々を確実に保護しなければなりません。社会として、私たちは今、そこでそれを行うことを学ばなければなりません。物事は常に進化しているため、ジェネレーティブまたは他のAIシステムによって変更される職業があります。私たちが知性で行う特定のタスクを私たちよりも優れたパフォーマンスを発揮する機械を作ることができれば、これらのタスクを行うことで生計を立てている人々にどのように同行することができますか?私たちの社会はこれに対処し、失業や強制的な再訓練を避けることができると思います。そして、私たちのスキルに取り組むことができるようにAIを使用するように人々に教える。

    ジャーナリズムは、ジャーナリストが個人と情報の間のリンクであるため、これらのAI問題に関連して、今日最も進化している職業の1つです。もともと情報処理機械だった機械は、情報生成機械になりました。したがって、情報の生成者であるジャーナリストも、機械が決してできないことが真実であることを証明するために、情報の規制当局または管理者になる必要があるかもしれません。ジャーナリストは、彼の仕事を通じて、この記事で言われていることや画像に表示されていることが特定の現実に対応していることを証明することができます。しかし、確かに、偽情報の世界には明るい未来があります。

    8.AIはどのように潜在的に危険である可能性がありますか?

    どんな技術も潜在的に危険です。技術を作成するとき、あなたはそれが誤用される可能性があることを知っています。それ自体が危険なのはAIではなく、あなたがコントロールできないモンスターを作ったという神話から抜け出さなければなりません。私たちは、機械が何をし、どのようにそれを行うかを知っています。彼らが行った計算を説明する方法がわからないかもしれませんが、結果を管理します。私たちは、彼らが間違いを犯す可能性があることを知っており、それが起こると、その理由を理解し、それを改善しようとします。

    それは技術的な問題ではなく、社会的な問題です。研究者が彼らの機械の使用を心配していること、私はそれを理解しており、それは合法です。1940年代初頭、核分裂を共同発見したオーストリアの物理学者リーゼ・マイトナーは、この発見を使って爆弾を作るのは普通ではないため、マンハッタンプロジェクトに参加しないと述べた。研究者が、ジェネレーティブAIから「フェイクニュース」(「インフォックス」)を作るシステムを作ることを心配していると言うことは、完全に合法です。

    しかし、実際には、私たちは研究者としての役割に戻り、科学的レベルで意見を述べなければなりません。社会レベルでは、決めるのは私たち次第ではなく、私たちの仕事ではありません。それは、このテーマについて言いたいことがある社会、政治家、ジャーナリスト、芸術家、他の人々です。私たち科学者は、それがどのように使用されるかを見るためではなく、知識を創造するためにそこにいます。

    一方、潜在的に危険であるため、そのような分野での研究を中止しなければならないと言うことに反対です。知識が危険だと信じるのは間違いだと思います。危険なのは知識の使用であり、それが違いです。AIに関する研究は続けなければなりません、これらは一時停止すべき用途です。しかし、私たちはこれに関する世界的な合意を見つけることは決してないので、それは複雑です。中国人が路上で人々に注目するために顔認識を使ってから5年が経ちました。アルゴリズムは人しか認識しないことを知っておく必要があります。メモを置くのは人間です。乳がんを検出できるのと同じ人工視覚の研究を停止する必要がありますか?私はそうは思いません。

    AIを知っている人は、その用途について警告し、これは正常です。言う:「注意してください、Dall-Eで、あなたは何でも、すべてのイメージを作ることができます。同様に、ChatGPTが非常に真実に見えるテキストを作成できることを示すために出てきたのは良いことです。たとえそれがウサギの卵、存在しないものについて話していても、それはとてもよく話します。「ディープフェイク」で、私たちはジョー・バイデンにロシアを爆撃するように言わせることができる。これらのAI技術で何ができるかを人々が知っているのは良いことです。彼らはその主題を把握し、私たちが話していることを理解しなければなりません。それが危機に瀕していると思います。

    Nicolas Sabouretは、パリ・サクレー大学のコンピュータサイエンスの教授であり、デジタル科学の学際的研究所(LISN-Univ)の研究者です。彼はEllipsesによって出版された「人工知能を理解する」の著者であり、人工知能の哲学者Laurent Bibardとの共著者は技術的な問題ではありません。Éditions de l’Aubeの哲学者とコンピュータ科学者の交流。

    https://www.rfi.fr/fr/connaissances/20230609-intelligence-artificielle-de-quoi-parle-t-on-vraiment

     

  • 人工知能の経済的利益:ファンタジーか現実か?

    人工知能の経済的利益:ファンタジーか現実か?

    人工知能は経済の新しいエンジンですか?それは成長を促進する能力を持っていますか?これは彼の熱烈な支持者がした約束です。

    約10年間、経済学者はAIの影響を評価するための前向き研究を定期的に発表してきました。非常に感動的な数字と2つの定数:人工知能は雇用を破壊し、成長に資します。しかし、これらの仮説はこれまで真実とは程遠い。これらの研究の中で最新のもので、ゴールドマン・サックスが昨年3月に発表したメモは、再び、最終的に3億の雇用の潜在的な消失を予見することによって労働市場にとって壊滅的であり、この技術的混乱のおかげで7%後押しされる成長のための天使であるため、多くの感情を引き起こしました。

    仕事が少ない、ゴールドマン・サックスの仮説は、より多くの成長のための前提条件ですか?

    雇用と成長は密接に関連しています。GDPのポイントを得るのは生産性の向上です。しかし、生産性の向上は、とりわけ仕事に費やすことを減らすことによって得られます。誰が人間の労働が少ないと言うか、支払う賃金が少なく、したがってよりジューシーな利益を言う。より多くの人工知能は、継続的に稼働する工場のファンタジーでもあります。この生成的な人工知能のおかげで、男性と女性に代わるロボットによる無限の成長を想像してみませんか?AIに投資できる企業の貸借対照表を支持するこの予言は、不平等の拡大を助長する可能性があり、したがって成長はあまり共有されていません。

    歴史は、技術革命は常に仕事を破壊することから始まることを教えてくれます

    これがまさに彼らが彼らに苦しむ人々にとって恐ろしい理由です、私たちは1831年の織機に対するリヨンのキャヌの反乱を考えます。しかし、それは何十年にもわたって広がるプロセスであり、常に仕事にあり、労働市場と従業員のプロファイルを再構成します。技術革命はまた、新しい雇用を創出し、既存の雇用を改善します。例えば、高齢化に伴う人材需要が爆発する分野である健康の分野では、AIから多くのことが期待されています。しかし、仕事は失格にならないでしょう。

    2世紀の間、労働者の能力が新技術の貢献によって強化されたため、賃金の中央値は10倍に増加しました。AIと雇用に関する最初の真剣な研究は2013年にさかのぼり、2023年にアメリカの雇用の47%が消滅したと発表しました。しかし、2023年であり、雇用市場は現在、大西洋全体で非常に緊張していることがわかります。新しい技術によって絶えず更新される仕事の変容は、必ずしも純粋で単純な仕事の消失を意味するものではありません。今日米国で行使されている職業の60%は、1940年代にはまだ存在しませんでした。

    成長への影響も視野に入れるべきでしょうか?

    インターネットの最近の経験は啓発的です:1995年から2000年の間に、技術証券のアメリカの証券取引所であるナスダックの価値は、成長を生み出す力を信じられていたため、5倍に増加しました。しかし、インターネットバブルはついに崩壊し、2000年代以降、インターネットがユビキタスになったいわゆる先進国では、成長と生産性は依然として弱いままです。19世紀には、鉄道にも同じ幸福感があった。しかし、力強い成長を生み出すまでに何十年もかかりました。インフラが建設される時間。そして、当時の成長の別の決定エンジンが現れた時間:貿易の爆発。成長を再設計するのはAI革命だけでなく、経済に注入する方法です。その影響は、現在議論中の規制にも依存し、その開発を妨げる可能性があります。

    https://www.rfi.fr/fr/podcasts/aujourd-hui-l-économie/20230612-les-retombées-économiques-de-l-intelligence-artificielle-fantasme-ou-réalité

     

  • エマニュエル・マクロン、人工知能を支援する計画を発表

    エマニュエル・マクロン、人工知能を支援する計画を発表

    エマニュエル・マクロンは人工知能を加速したいと考えています。国家元首は昨日、フランス部門を支援するための膨大な計画を発表した。パリのVivaTechショーで、征服された領土で行われた発表、偉大なヨーロッパの技術と革新。この機会に、大統領はまた、イノベーションを妨げることなく、セクターを迅速に規制することの重要性を想起した。

    人工知能を開発することはそうですが、AIは「フランス製」です。これは、VivaTechショー以来、エマニュエル・マクロンが起業家に送ったメッセージです。国家元首はまず競争相手に追いつくことを望んでいる。「アメリカ合衆国、遠くから、そして中国でさえ、この2人の偉大な指導者が私たちフランス人や私たちヨーロッパ人よりもはるかに速く進んでいることは明らかです」とエマニュエル・マクロンは認めた。

    このため、政府はポケットに手を入れます。新しい才能を産むことを目的としたトレーニングに5億ユーロが投資されます。「私たちには良い研究機関、良い大学があります。単純に、私たちはもっと多くのことをしなければなりません。そして、私たちはトレーニングコースの数を2倍にするという目標を設定しなければなりませんが、同時に5〜10のAIクラスターを5億ユーロに引き出し、その中で少なくとも2つから3つのグローバルな参照を持つ必要があります。」

    セクターを規制したいという彼の願望について、国家元首は彼の立場を維持し、「同時に」という彼の戦略に忠実であり続けます:「私にとって、優先事項は本当にクーデターのために「同時に」行うことです。つまり、同時に、研究、革新、非常に強力なエコシステムの創造を加速し、規制に参加する必要がありますが、その範囲はできるだけ広くなければなりません。」

    今週の金曜日にエマニュエル・マクロンに会う予定のイーロン・マスクとの交流の中心にある戦略。

    セネガルの「新興企業」の強い存在感
    ヒューマノイドロボットに出会ったり、バーチャルリアリティヘッドセットのおかげで何千キロも離れたところを旅したり、VivaTechショーではすべてが可能です!世界中の数千人の起業家、「新興企業」、投資家は、新技術が企業や社会を変革する力を持っていると確信しています。アフリカが参加しようとしている変革、特にセネガルは、18の新興企業を持つVivaTechで非常によく代表されています。

    「Reparekでは、各顧客がプラットフォームにアクセスし、機器を修理してもらう修理業者を見つけるための接続を提供します」と、このプロジェクトの責任者であるBoussoura Tallaは述べています。Reparekは、電子機器の修理に特化したプラットフォームです。そして、西アフリカでのパッケージ製品の再販。Boussoura Tallaも彼女の国を非常に誇りに思っています:「今日、それは必ずしも数年前にそこにあったのと同じ新興企業ではありません。もっとあります。だから毎年、国はさらに進んでいます。その結果、セネガルがVivaTechでまだよく代表されていることは必然的に誇りです。」

    今年は、18のセネガルの新興企業がVivaTechでイノベーションを発表しています。彼らは「LionsTech Invest」の一部です。カディア・トラオレが率いるこのコミュニティは、「高い可能性を秘めている」と考えられるセネガルの新興企業を結集しています。「アグリテック、フィンテック(金融)、電子商取引、小売、AI、データの両方がある、と彼女は言います。アイデアは、「技術における女性」の部分を統合しながら、非常に広範であることでした – だから、私たちは存在するいくつかの起業家がいます – セネガルに存在する複数の新興企業を本当に示すために。」

    これらすべてのスタートアップ(スタートアップ)にとって、VivaTechは可視性を得る機会です。戦略的パートナーシップを構築し、資金を調達し、その開発を加速する。

    https://www.rfi.fr/fr/technologies/20230615-emmanuel-macron-annonce-un-plan-de-soutien-à-l-intelligence-artificielle

     

  • 人工知能:天使か悪魔か?

    人工知能:天使か悪魔か?

    最近のパブリックドメインでの人工知能の出現は、大きな論争を引き起こしている。一部の人によると、AIの進歩の約束は新しい世界の夜明けですが、他の人によると、それは人類の喪失です – 彼らはこの科学分野がその活動を停止するたいと思っています。では、AIは天使ですか、それとも悪魔ですか?6月12日月曜日、私たちのアンテナの特別な日の機会に、RFIによって質問された専門家とのこの論争への回答。

    アメリカの会社Hugging FaceのJulien Chaumondは、AIに関する現在の立場を説明するために、一方ではリスクを認識しているが、技術の進歩を止めたくない支持者の間の振り子の動きについて教えてくれます。エコーでは、スタンフォード大学の教授であるクリストファー・マニングが、「AI安全」キャンプと「AI倫理」キャンプ、2つの騒々しい、正反対のキャンプについて語ります。2つの間で、振り子は精力的にその動きを行い、リズムを把握するのは私たち次第です。

    しかし、なぜそんなに多くの疑問?この恐怖は正当化されますか?

    ハグ・フェイスのメイン倫理学者であるジャダ・ピスティリによると、むしろ、それは誤解です。「自律性と良心を欠いた人工知能は、道徳的なエージェントとも道徳的な患者とも考えられないことを覚えておくことが重要です。彼女は自分の行動に責任を持つことができない。AIを取り巻く現在の言説は、これらのシステムの背後にある人間のアクターを不明瞭にする傾向がある。AIを懸念事項として提示することは、制御不能で謎めいた、AIの行動に対する責任を人間から機械にシフトすることを目的とした、それらを開発するいくつかの企業の戦略のようです。しかし、AIシステムが「悪行」を犯した場合、責任はそれを設計、プログラム、または使用した個人にあることを強調することが重要です。」

    このブラックボックスの概念は基本的です。一部の人によると、あまりにも不透明で、それは恐ろしい幽霊のような側面を持っています。それは、AIの背後にあるメカニズム、人間の介入を理解していないからですか、それとも単にAIが対処する領域が予期しないからですか?

    Giada Pistilliは次のように説明しています。「私たちは「ブラックボックス」から「マジックボックス」になりました。私たちはすべてを行うことができるとしてこれらのAIシステムを提示されています。それらは、適切な使用のための指示や教育なしに一般に届けられます。したがって、機密と見なされるコンテキストでそれらを使用しようとすると、リスクと危険性をすぐに認識します。」

    機械との通信インターフェースはとてもシンプルです

    チャットGPTの才能に依存するBing検索エンジンの最近の開発は、毎回供給される与えられた回答の質に感銘を与えます。私たちは、アルゴリズムが知られていない冷たい検索エンジンの進化を目の当たりにしており、かなり暖かい会話の一部として配信され、常識に満ちている情報に向かっています。これにより、連絡を受けた別の専門家が次のように述べています。「AIは、以前は実行できなかったタスクを実行できるため、魅力的です。これまで、マシンと通信するために、私たちはしばしば退屈なドキュメント(Windows上のPowerPoint、Excel、その他の拷問ロゴ)を読むことによって、彼らのコードを体系的に遵守しなければなりませんでした。初めて、言語モデルでは、マシンとの通信インターフェースは非常にシンプルで、話すだけです。このタイプのモデルは、対処できるタスクの数を制限することなく、人間と機械の相互作用が流動的であるため、魅力的です。生成画像モデルの例を取ると、簡単な説明で想像するシーンが数秒で表示されるのを見るのは魅力的ではありませんか?これは、創造的なプロセスに可能性の全く新しい分野を開きます。」

    疑わしいAIの創造性...© NightCafeによって生成された画像
    疑わしいAIの創造性…© NightCafeによって生成された画像

    クリエイティブなAIはありますか、本当に?

    これは、エッセイDesign sous artificeの著者であるHaute école d’art et de design(HEAD)の准教授であるAnthony Masureの意見ではありません:機械学習のリスクによる創造(2023)。彼は本の中で次のように説明しています。「ウォルター・ベンジャミンの言葉を借りれば、これらのプログラムは、それを変換しようとせずに生産装置を供給することしかできません。 言い換えれば、それらは「反動的」であり、「革命的」ではありません。たとえば、AIがレンブラントのように絵画を「再現」(作成)できる場合 – 明らかな努力なしに、そして技術が本当に問題になることなく – レンブラントと同じくらい強い絵画パラダイムだけでなく、通常のカテゴリ(油絵、電子音楽、ウェブサイトインターフェースなど)を超えた新しい表現形態を「生産」することははるかに困難になります。「人工知能が作成できる場合」と尋ねることは、問題を提起するのは間違っています。一方では、彼らは魔法のようなものを持っていないため、他方では、物質的な不測の事態から解放された創造の語彙は、技術を探求の場所として、したがって「生産」の場として考慮することができないからです。」

    この世代の画像の間違った方向への使用から終わりのないものまで、フェイクニュースの作成において、恐怖がやってくるでしょう。しかし、どのように規制するのですか?これは現在の問題であり、振り子の動きの方向とそれに課される制限です。

    私たちの専門家は次のように説明しています。「AIは、私たちがそれらを数える方法を知らないほど多くの目的に使用できるので怖いです、そして、私たちは私たちが考えもしなかったであろうユースケースを恐れています。さらに、彼の予測は統計的学習に基づいており、この概念は理解するのが難しいようで[ここで説明します]、説明メカニズムをぼかします。この特性により、AIは何にでも使用するのに適しておらず、私たちはこの悪い選択をする人を恐れています。」

    AIはそんなに悪いのだろうか?

    アンソニー・メイジャーは、最初から提唱されたAIの肯定的な側面を思い出します:「それは、機械が実行できる退屈で反復的なタスクを取り除くことを可能にする作業補助です。時間を解放する:これはAIの約束です!しかし、約束が常に守られているとは限らないと感じています。「自動化(時間の節約)という2つの目的がありますが、AIはどこでも機能しないことを覚えておく必要があります。したがって、癌の診断は得意ではありませんが、輸送には効果的です。この効率は人々を失業させるだろうか?「コピーライターや、例えばUbisoftのように、AIを介してタスクが達成可能な従業員の一部を解雇したように、非常に明らかに失業があるでしょう。」そして、別の目標はありますか?「はい、新しい問題を解決することです。本当の問題である交換、将来の不安定さについて多くの話がありますが、補完性についてはほとんど言及されていません。機械と一緒に働くというアイデア。この方向のリードは、特に創造を刺激しています。」

    AIは差別の道具です

    しかし、AIは差別的なツールであり、これは最近のモデルの統計的根拠を上げる専門家によってリコールされ、統計は平均、標準、トレンドを言う…アンソニー・メイシュアは次のように詳述しています。「はい、私たちはAIが差別のためのツールであるという事実を主張しなければなりません。ディープラーニングは利用可能なデータを使用し、使用される統計モデルであり、ひどいバイアスです。特に恵まれない人々、マイノリティに対して…」

    「ディープラーニングは利用可能なデータを使用し、使用される統計モデルであり、ひどいバイアスです。特に恵まれない人々、マイノリティに対して...」 「ディープラーニングは利用可能なデータを使用し、使用される統計モデルであり、ひどいバイアスです。特に恵まれない人々、マイノリティに向けて...」©NightCafeによって生成された画像
    「ディープラーニングは利用可能なデータを使用し、使用される統計モデルであり、ひどいバイアスです。特に恵まれない人々、マイノリティに対して…」
    「ディープラーニングは利用可能なデータを使用し、使用される統計モデルであり、ひどいバイアスです。特に恵まれない人々、マイノリティに向けて…」©NightCafeによって生成された画像

    AIは、あらゆる意味で、その提案や選択において、時にはひどくバイナリであると言えます。これらのモデルは、特定のカテゴリの開発者によって作成され、世界の複数を無視して特定のカテゴリの人々に蓄積されたデータで作成されました。写真の処理のために、AIによる提案は、性別と肌の色の概念に関して衝撃的になる可能性があります。アンソニー・メイシュアは、データ処理の目的は最後にあると指摘しています。「常に人々をもう少し良くすることです。AIが使用される場合、司法はマイノリティをさらに厳しく罰する。彼は次のように付け加えます。「私たちはテクノソルベリズムに警戒しなければなりません。それはそれほど単純ではありません。考えられる解決策はありますか?「はい、特に投資では、すべてをシリコンバレーに任せてはいけません。なぜなら、私たちの生活をコントロールすることについて話すなら、すべてのデータが米国に行くことを忘れないでください、それは深刻な問題です。」

    ChatGPTエキスパートモデルの意見

    私たちは、お気に入りの天使/悪魔であるChatGPTエキスパートモデルに、この問題に関する彼の意見を尋ねました。

    「人工知能(AI)の使用に関する議論は複雑で、この問題についてはさまざまな視点があります。AIを多くの機会を提供する進歩と技術の進歩と見る人もいれば、その使用に関連する懸念と潜在的な危険性を強調する人もいます。2つの視点を紹介させてください。

    AIの進歩:

    • 生産性の向上:AIは反復的で面倒なタスクを自動化できるため、人間はより高い付加価値の高いタスクに集中できます。
    • 科学と医学の進歩:AIは、医学研究、創薬、複雑なデータ分析などの分野で使用でき、これらの分野で大きな進歩に貢献することができます。
    • 改善されたサービス:AIは、仮想ウィザード、パーソナライズされた推奨事項、機械翻訳システムなど、サービスやユーザーエクスペリエンスを向上させるために使用できます。

    AIの懸念と危険性:

    • 雇用への影響:AI自動化は、一部の仕事に取って代わる可能性があり、仕事の将来や専門的な再資格の必要性に対する懸念が高まります。
    • バイアスと差別:AIシステムは、訓練されたデータに存在するバイアスを反映する可能性があり、差別的または不公平な結果につながる可能性があります。
    • 倫理的問題:AIは、自律機械による意思決定の責任、データの機密性、アルゴリズムの透明性など、複雑な倫理的問題を提起します。
    • 危険または進歩としてのAIの認識は、多くの場合、それがどのように使用され、規制されているかに依存することに注意することが重要です。多くの人が、AIが責任を持って倫理的に開発され、使用されるように、適切な規制とガバナンスの必要性を強調しています。

    結局のところ、AIが危険か進歩かという質問に対する簡単な答えはありません。特定の状況、想定される用途、リスクを最小限に抑え、利益を最大化するために取られた予防措置によって異なります。オープンな対話と情報に基づいた意思決定は、社会的に有益な方法でAIの未来を形作るために不可欠です。」

    ありがとう、小さな天使/悪魔、私たちのスピーカーは同じ問題を強調しました。

    のんきな人に、悪魔は地獄に住む堕天使であることを思い出させましょう。そこから、彼は男性、女性、LGBTIQA+を誘惑するために最善を尽くします。

    リュック・ジュリアはSiriの共同発明とルノーの科学ディレクター

    ラファエル・ドアンの歴史家、Chat GPT 3を使用して書かれたuchroniaの著者ローマが倒れていなかった場合(ed.過去/コンパウンド、2023年)

    オーレリー・ジャン、科学博士、起業家、アルゴリズム科学の専門家、アマンダ・サーズと共同執筆した「レジスタンス2050」の著者(オブザーバトワール版)

    https://www.rfi.fr/fr/technologies/20230612-polémique-l-intelligence-artificielle-ange-ou-démon

  • イギリスは人工知能に関する第1回世界サミットを開催します

    イギリスは人工知能に関する第1回世界サミットを開催します

    英国は、技術に関連するリスクを制限するための世界的なアプローチを達成することを目的として、年末までに人工知能(AI)に関する第1回世界サミットを開催すると、英国のリシ・スナック首相は水曜日にワシントンで発表した。

    「AIは、私たちの生活をより良く変える信じられないほどの可能性を秘めています。しかし、私たちはそれが安全に開発され、使用されることを確実にしなければならない」と、ホワイトハウスへの訪問の傍らでリシ・スナクは言った。そこで彼はジョー・バイデン大統領と会わなければならない。「私たちは、歴史を通して、人類の利益のために使用してきた新しい革命的な技術を生み出すのをやめたことはありません。これは私たちが再び達成しなければならないことだ」と彼は付け加えた。

    サミットは2023年秋に開催され、規制の基礎を築くために「同様のアプローチを持つ国」を結集すべきだ、と英国の指導者のスポークスマンは述べた。しかし、サミットのアイデアは、中国やロシアなどの権威主義国家がそれを作ることができるAIの搾取を阻止することを目的としていない、と同じ情報源は述べた。

    しかし、それは最終的にAIの潜在的なグローバル規制当局の本部を歓迎したいという英国の願望に応えていますが、欧州連合と米国はすでにこのテーマについて議論し始めていますが、その願望は損なわれる可能性があります。リシ・スナクは、イギリスが除外される可能性は低いと保証した。

    「AIに関しては、私たちの国がリーダーになる能力に自信を持たなければならないと思います。なぜなら、それは事実が強調していることだからです」と彼はBBCに保証しました。 「企業の数、投資額、私たちの研究の質を見ると、米国以外の他の民主主義国の中では誰もレベルではありません」とリシ・スナクは主張しました

    英国首相はまた、バイデン大統領の年齢のほぼ2倍(Rishi Sunakは80歳対43歳)が、この技術に直面して時代遅れではないと保証した。「はい、私たちは日本で一緒にいたときに人工知能について議論しました[G7サミット、編集者注]、そして私は彼がそれに伴うリスクと機会を十分に認識していることを知っています」と、アメリカ大統領との会談の前に、英国のチャンネルTalkTVでRishi Sunakは言いました。

    (AFP付き)

    https://www.rfi.fr/fr/technologies/20230608-le-royaume-uni-accueillera-le-premier-sommet-mondial-sur-l-intelligence-artificielle

     

  • 人工知能:ジェフリー・ヒントンは言論の自由を守るためにGoogleを離れる

    人工知能:ジェフリー・ヒントンは言論の自由を守るためにGoogleを離れる

    人工知能を専門とするカナダの研究者であるジェフリー・ヒントンは、ChatGPT人工知能ソフトウェアに使用される技術の原点にあります。ニューヨークタイムズとのインタビューで、彼は現場での進歩に関連する危険性について警告できるようにGoogleを離れると言います。

    Googleを離れることで、ジェフリー・ヒントンは、彼が長年の研究を捧げてきた技術である人工知能の危険性について話すことができるでしょう。「彼の一部は今、彼の人生の仕事を後悔しています」とニューヨークタイムズの記事は述べています。「私は通常の言い訳で自分を慰めます。もし私がそれをしなかったら、他の誰かがそれをしたでしょう」と彼はニュアンスを思いました。

    辞任を確認するツイートで、彼は「非常に責任を持って行動した」ハイテク大手を批判したいという願望に反論した。

    ニューラルネットワークに取り組む

    クリックは長い道のりをさかのぼります:1972年、ジェフリー・ヒントンはスコットランドのエジンバラ大学の学生の中で1人だけです。しかし、彼はすでにニューラルネットワークに夢中になっています:自分の間違いを修正する能力を持つ人間の脳に触発された数学システム。当時、誰もそれを革命とは見なかった。しかし、ジェフリー・ヒントンはこれらのアルゴリズムを完成させるために人生を費やすだろう。2012年、トロント大学の2人の学生、イリヤ・スツケベルとアレックス・クリシェフスキーとともに、カナダに移住したこのイギリス人は、何千もの写真を分析し、花や車などの一般的なオブジェクトを識別することを学ぶことができるシステムを開発しました。Googleはこの発見に投資しています(4400万ドル)。その後、彼はアメリカのグループの「人工知能」になった。

    ジェフリー・ヒントンによると、企業がAIシステムを改善するにつれて、ますます危険になるという。そして、マイクロソフトとグーグルの競争は、この現象を強調しています。昨年2月、Googleは、アメリカのスタートアップOpenAIのソフトウェアであるChatGPTの数ヶ月後に、Bardと呼ばれる会話型ロボットを発売しました。

    コンピューター科学者にはいくつかの恐れがある。第一に、インターネットにはAIによって生成された写真、ビデオ、テキストで虚偽の情報であふれており、現実と区別することは不可能です。彼はまた、AIは、例えば翻訳者などの特定の職業を排除することで、労働市場を完全に混乱させることができると信じています。

    共通の懸念

    3月、OpenAIの創設者の一人である億万長者のイーロン・マスクと数人の科学者は、「人類への大きなリスク」を引用して、GPT-4よりも強力なAIに関する研究の6ヶ月の休憩を求めた。ジェフリー・ヒントンは当時、署名者の1人ではありませんでした。しかし、ニューヨークタイムズでは、科学者は「それらを制御できるかどうかを知る前に」これらのAIをまだ後押しすべきではないと考えており、世界的な規制の必要性を指摘しています。

    2018年、ヒントン博士とヨシュア・ベンジオ、ヤン・レカン博士は、しばしば「ノーベルコンピュータサイエンス賞」と呼ばれるチューリング賞を受賞しました。

     

    https://www.rfi.fr/fr/technologies/20230502-geoffrey-hinton-quitte-google-alerter-dangers-intelligence-artificielle-chatgpt-ia-new-york-times