AIの専門家は、堅牢なAIをヘルスケアに統合する方法、学際的なコラボレーションが重要である理由、および研究における生成AIの可能性について議論します。
5月14日にスタンフォード大学医学部で開催された最初のレイズヘルスシンポジウムで、Feifei LiとLloyd Minorが開会の発言をしました。スティーブフィッシュ
人工知能に捕らえられたほとんどの人は、ある種の「aha」の瞬間を持ち、可能性の世界に心を開いています。 5月14日に開催された初のRaise Health Symposiumで、スタンフォード大学医学部学部長であり、スタンフォード大学医学担当副学長のロイドマイナーで、彼の視点を共有しました。
好奇心の強いティーンエイジャーが、内耳に関する彼の発見を要約するように求められたとき、彼は生成的な人工知能に目を向けました。 「私は尋ねました、「優れた運河dehiscence症候群は何ですか?」マイナーは、4,000人近くのシンポジウム参加者に語った。数秒で、いくつかの段落が登場しました。
「彼らは良い、本当に良い」と彼は言った。 「この情報は、病気の簡潔で、一般的に正確で明確に優先された説明にまとめられたこと。これは非常に驚くべきことです。」
多くのマイナーが半日イベントに興奮しました。これは、レイズヘルスイニシアチブの大成長であり、スタンフォード大学医学部とスタンフォード大学の人工知能研究所(HAI)によって開始されたプロジェクトであり、人工の責任ある使用を導きます知能。生物医学研究、教育、患者ケアの知能。スピーカーは、医師や科学者に役立つだけでなく、患者にとって透明で公平で公平な方法で、医学に人工知能を実装することの意味を調べました。
「これは人間の能力を高める技術であると信じています」と、スタンフォード大学工学部のコンピューターサイエンスの教授であり、マイナープロジェクトのRaise Healthのディレクターであり、HAIの共同ディレクターであるFei-Fei Liは述べています。世代後の世代、新しい技術が出現する可能性があります。抗生物質の新しい分子配列から生物多様性のマッピング、基本生物学の隠された部分を明らかにすることまで、AIは科学的発見を加速しています。しかし、これのすべてが有益であるわけではありません。 「これらのアプリケーションはすべて意図しない結果をもたらす可能性があります。責任を持って[人工知能]を開発および実装するコンピューター科学者が必要であり、医師や倫理学者からセキュリティの専門家などに至るまで、さまざまな利害関係者と協力しています」と彼女は言います。 「Raise Healthのようなイニシアチブは、これに対する私たちのコミットメントを示しています。」
スタンフォード医学の3つの部門(医学部、スタンフォードヘルスケア、スタンフォード大学児童健康医学部学校)の統合とスタンフォード大学の他の地域との関係は、専門家が専門家の開発に取り組んでいる立場に置いています。人工知能。医療と医学の分野における管理と統合の問題。薬、歌は行きました。
「私たちは、基本的な生物学的発見から医薬品の開発の改善と臨床試験プロセスのより効率的なものにまで、医療サービスの実際の提供まで、人工知能の開発と責任ある実施の先駆者であると考えられています。健康管理。ヘルスケアシステムのセットアップ方法」と彼は言いました。
数人のスピーカーは、単純な概念を強調しました。ユーザー(この場合は患者または医師)に焦点を当て、他のすべてが続きます。 「それは私たちがするすべての中心に患者を置きます」と、ブリガムと女性病院の生命倫理学部長のリサ・レーマン博士は言いました。 「私たちは彼らのニーズと優先事項を考慮する必要があります。」
左から右へ:Stat News Anchor Mohana Ravindranath; Microsoft ResearchのJessica Peter Lee。生物医学データサイエンスの教授であるSylvia Plevritisは、医学研究における人工知能の役割について議論しています。スティーブフィッシュ
Lehmann、Stanford University Medical Bioethicist Mildred Cho、MD、およびGoogleの最高臨床責任者Michael Howell(MD)を含むパネルの講演者は、病院システムの複雑さに注目し、介入前に目的を理解する必要性を強調しました。それを実装し、開発されたすべてのシステムが包括的であることを確認し、支援するように設計された人々の話を聞きます。
1つの鍵は透明性です。アルゴリズムのトレーニングに使用されたデータ、アルゴリズムの本来の目的はどこか、将来の患者データがアルゴリズムの学習を支援し続けるかどうかを明らかにします。
「倫理的な問題が深刻になる前に予測しようとすることは、テクノロジーについて十分に知っている完璧なスイートスポットを見つけることができます。 、デントン・チャーは言った。医学科学候補、小児麻酔科、周術期医療および疼痛医学の准教授。重要なステップの1つは、テクノロジーの影響を受けている可能性のあるすべての利害関係者を特定し、彼ら自身がそれらの質問にどのように答えたいかを決定することです。
アメリカ医師会の会長であるジェシー・エーレンフェルド医師は、人工知能を搭載したものを含むデジタルヘルスツールの採用を促進する4つの要因について議論しています。効果的ですか?これは私の施設で機能しますか?誰が支払うのですか?誰が責任を負いますか?
スタンフォードヘルスケアの最高情報責任者であるMichael Pfeffer、MDは、スタンフォード病院の看護師の間で多くの問題がテストされた最近の例を引用しました。臨床医は、入ってくる患者メッセージに初期注釈を提供する大規模な言語モデルによってサポートされています。このプロジェクトは完璧ではありませんが、テクノロジーの開発を支援した医師は、モデルがワークロードを緩和することを報告しています。
「私たちは常に、安全性、効率性、包摂という3つの重要なことに焦点を当てています。私たちは医師です。私たちは「害を及ぼさない」ために誓いを立てていると、メリーランド医学博士博士号は、チャーとペファーに加わった精神医学および行動科学の臨床助教授であると述べた。 「これは、これらのツールを評価する最初の方法です。」
Nigam Shah、MBBS、Ph.D。、医学および生物医学データサイエンスの教授は、聴衆への公正な警告にもかかわらず、衝撃的な統計で議論を始めました。 「私は一般的な用語と数字で話しますが、時には彼らは非常に直接的である傾向があります」と彼は言いました。
シャーによると、AIの成功は、それを拡大する能力に依存しています。 「モデルに関する適切な科学的研究を行うには約10年かかります。123のフェローシップとレジデンシープログラムのそれぞれが、モデルをそのレベルの厳密さにテストして展開したい場合、現在組織しているため、正しい科学を行うことは非常に困難です。私たちの努力と[テスト]]私たちのすべてのサイトが正しく機能することを確認するのに1,380億ドルの費用がかかります」とシャーは言いました。 「私たちはこれを買う余裕がありません。したがって、拡大する方法を見つける必要があり、拡大し、良い科学を行う必要があります。厳密なスキルはある場所にあり、スケーリングスキルは別の場所にあるため、そのタイプのパートナーシップが必要になります。」
アソシエイトディーンユアンアシュリーとミルドレッドチョ(レセプション)がレイズヘルスワークショップに参加しました。スティーブフィッシュ
シンポジウムの一部の講演者は、これは、人工知能の安全で安全で信頼できる開発、およびヘルスケア人工知能のコンソーシアム(CHA)に関する最近のホワイトハウスの大統領命令など、官民パートナーシップを通じて達成できると述べました。 )。
「最大の可能性との官民パートナーシップは、学界、民間部門、公共部門の間の1つです」と、国立医学アカデミーの上級顧問であるローラ・アダムスは述べています。彼女は、政府が公的な信頼を確保することができ、学術的な医療センターができると指摘した。正当性を提供し、技術的な専門知識とコンピューター時間を民間部門から提供できます。 「私たちは皆、私たちの誰よりも優れています。私たちはそれを認識しています。お互いに対話する方法を理解しない限り、[人工知能]の可能性を実現するために祈ることはできません。」
数人の講演者は、AIが研究にも影響を与えていると述べた。科学者はそれを使用して生物学的な教義を探求するか、合成分子の新しいシーケンスと構造を予測して新しい治療法をサポートするか、科学論文の要約または作成を支援するかどうか。
「これは未知のものを見る機会です」と、スタンフォード大学医学部の心臓専門医であり、アルファベットのVerilyの共同設立者であるJessica Mega医師は言いました。メガは、人間の目には見えない画像機能をキャプチャするハイパースペクトルイメージングに言及しました。アイデアは、人工知能を使用して、人間が病気を示しているとは思わない病理スライドのパターンを検出することです。 「私は人々が未知のものを受け入れることを奨励します。ここの誰もが、私たちが今日提供できるものを超えて何かを必要とするある種の病状のある人を知っていると思います」とメジアは言いました。
パネリストはまた、人工知能システムが、バイアスの原因を特定する能力を備えた、人間であろうと人工知能のいずれであろうと、偏った意思決定を特定して戦うための新しい方法を提供することに同意しました。
「健康は単なる医療以上のものです」といくつかのパネリストは同意しました。講演者は、研究者が包括的データを収集し、研究のために参加者を募集する際に、社会経済的地位、郵便番号、教育レベル、人種と民族などの健康の社会的決定要因を見落とすことが多いことを強調しました。ハーバード大学の疫学の教授であり、スタンフォード大学医学部の疫学と人口健康の准教授であるミシェル・ウィリアムズは、次のように述べています。 「私たちがやろうとしていることをするなら。健康の結果を改善し、不平等を排除します。人間の行動と社会的および自然環境に関する高品質のデータを収集する必要があります。」
小児科および医学の臨床教授であるナタリー・パゲラー医師は、総癌データはしばしば妊婦に関するデータを除外し、モデルに避けられないバイアスを生み出し、ヘルスケアの既存の格差を悪化させると述べた。
小児科と医学の教授であるデイビッド・マグナス博士は、新しい技術と同様に、人工知能は多くの方法で物事を改善するか、悪化させることができると述べました。マグナスによると、リスクは、人工知能システムが健康の社会的決定要因によって駆動される不公平な健康結果について学び、生産を通じてそれらの結果を強化するということです。 「人工知能は、私たちが住んでいる社会を反映する鏡です」と彼は言いました。 「私たちが問題に光を当てる機会があるたびに、自分自身に鏡を保持するために、状況を改善する動機として役立つことを願っています。」
Raise Health Workshopに参加できなかった場合は、セッションの録音をここにあります。
スタンフォード大学医学部は、スタンフォード大学医学部と成人および小児医療提供システムで構成される統合されたアカデミックヘルスケアシステムです。彼らは一緒になって、共同研究、教育、臨床患者ケアを通じて生物医学の可能性を最大限に引き出します。詳細については、med.stanford.eduをご覧ください。
新しい人工知能モデルは、スタンフォード病院の医師と看護師が協力して患者のケアを改善するのを支援しています。
投稿時間:19-2024 7月