Học máy có thể biến đổi y học. Chúng ta có nên để nó?
Học máy đang bắt đầu tiếp quản phân tích hình ảnh y tế. Nhưng các công cụ AI cũng đưa ra những câu hỏi đáng lo ngại vì chúng giải quyết vấn đề theo cách mà con người không thể luôn tuân theo.
Học máy có thể biến đổi y học. Chúng ta có nên để nó?
[Nguồn ảnh: interstid / iStock; hakkiarslan / iStock]
BỞI ERIC BENDER, UNDARKĐỌC LÂU
Tôi có các phòng khám trên khắp thế giới, một loại trí thông minh nhân tạo được gọi là học sâu đang bắt đầu bổ sung hoặc thay thế con người trong các nhiệm vụ phổ biến như phân tích hình ảnh y tế. Vừa qua, tại Bệnh viện Đa khoa Massachusetts ở Boston, mỗi một trong số 50.000 hình ảnh chụp quang tuyến vú chúng tôi thực hiện hàng năm được xử lý thông qua mô hình học tập sâu của chúng tôi và thông tin đó được cung cấp cho bác sĩ X quang, ông Constance Lehman, trưởng khoa chẩn đoán hình ảnh của bệnh viện .
Trong học tập sâu, một tập hợp con của một loại trí tuệ nhân tạo được gọi là học máy, các mô hình máy tính về cơ bản tự dạy chúng để đưa ra dự đoán từ các tập dữ liệu lớn. Sức mạnh thô của công nghệ đã được cải thiện đáng kể trong những năm gần đây và giờ đây nó được sử dụng trong mọi thứ, từ chẩn đoán y tế đến mua sắm trực tuyến đến xe tự hành.
Nhưng các công cụ học tập sâu cũng đưa ra những câu hỏi đáng lo ngại vì chúng giải quyết vấn đề theo cách mà con người không thể luôn tuân theo. Nếu kết nối giữa dữ liệu bạn nạp vào mô hình và đầu ra mà nó cung cấp không thể hiểu được thì ẩn giấu bên trong một cái gọi là hộp đen, làm sao nó có thể tin cậy được? Trong số các nhà nghiên cứu, ngày càng có nhiều lời kêu gọi để làm rõ các công cụ học tập sâu đưa ra quyết định như thế nào và một cuộc tranh luận về những gì có thể giải thích được như vậy và khi nào thực sự cần thiết. Các cổ phần đặc biệt cao trong y học, nơi cuộc sống sẽ ở trên đường.
CÁC CÔNG CỤ HỌC TẬP SÂU CŨNG ĐƯA RA NHỮNG CÂU HỎI ĐÁNG LO NGẠI VÌ CHÚNG GIẢI QUYẾT VẤN ĐỀ THEO CÁCH MÀ CON NGƯỜI KHÔNG THỂ LUÔN TUÂN THEO.
Tuy nhiên, lợi ích tiềm năng là rõ ràng. Ví dụ, trong chương trình chụp nhũ ảnh của Mass General, mô hình học sâu hiện tại giúp phát hiện các mô vú dày đặc, một yếu tố nguy cơ gây ung thư. Và Lehman và Regina Barzilay, một nhà khoa học máy tính tại Viện Công nghệ Massachusetts, đã tạo ra một mô hình học tập sâu khác để dự đoán nguy cơ phát triển ung thư vú của phụ nữ trong 5 năm qua, một thành phần quan trọng trong việc lên kế hoạch chăm sóc. Trong một nghiên cứu hồi cứu năm 2019 về chụp quang tuyến vú từ khoảng 40.000 phụ nữ, các nhà nghiên cứu đã tìm thấy hệ thống học tập sâu vượt trội so với phương pháp tiêu chuẩn vàng hiện nay trên bộ thử nghiệm của khoảng 4.000 phụ nữ này. Bây giờ trải qua thử nghiệm thêm, mô hình mới có thể bước vào thực hành lâm sàng thông thường tại bệnh viện.
Đối với cuộc tranh luận về việc liệu con người có thực sự hiểu hệ thống học tập sâu hay không, Barzilay ngồi vững trong trại rằng điều đó là có thể. Cô gọi vấn đề hộp đen là huyền thoại.
Một phần của huyền thoại, cô nói, là các hệ thống học tập sâu không thể giải thích kết quả của họ. Nhưng có rất nhiều phương pháp trong ngôn ngữ máy cho phép bạn diễn giải kết quả, cô nói. Một phần khác của huyền thoại, theo ý kiến của cô, là các bác sĩ phải hiểu làm thế nào hệ thống đưa ra quyết định của mình để sử dụng nó. Nhưng y học được nhồi nhét bằng các công nghệ tiên tiến hoạt động theo cách mà các bác sĩ lâm sàng thực sự không hiểu được, ví dụ, hình ảnh cộng hưởng từ (MRI) thu thập dữ liệu chụp nhũ ảnh bắt đầu.
Điều đó không trả lời mối quan tâm của tất cả các bác sĩ. Nhiều công cụ học máy vẫn là hộp đen, dùng để đưa ra phán quyết mà không có bất kỳ lời biện minh nào kèm theo, ghi chú một nhóm các bác sĩ và nhà nghiên cứu trong một bài báo gần đây trên BMJ Clinical Research . Nhiều người nghĩ rằng, như một công nghệ mới, gánh nặng của bằng chứng là học máy để giải thích cho những dự đoán của nó, các tác giả của bài báo tiếp tục. Nếu các bác sĩ không hiểu tại sao thuật toán đưa ra chẩn đoán, vậy tại sao bệnh nhân nên tin tưởng vào quá trình điều trị được đề nghị?
Và trong số các nhà khoa học máy tính nghiên cứu về máy học, thì cuộc thảo luận về khả năng diễn giải này đã biến mất hoàn toàn, ông Zachary Lipton, một nhà khoa học máy tính tại Đại học Carnegie Mellon nói. Thông thường, các mô hình được cung cấp để có thể giải thích đơn giản là không hoạt động tốt, ông nói, và có sự nhầm lẫn về những gì hệ thống thực sự cung cấp.
Cạn chúng tôi có những người trong lĩnh vực có khả năng quay quây nhưng thực sự không biết họ đang làm gì, anh ấy nói thêm, và thực sự không hiểu nền tảng của những gì họ đang làm.
LÀM SÁNG TỎ VIỆC HỌC SÂU
Các công cụ học tập được xây dựng dựa trên khái niệm mạng lưới thần kinh, ban đầu được lấy cảm hứng từ bộ não con người và bao gồm các nút hoạt động hơi giống các tế bào não. Các mô hình học tập sâu tập hợp nhiều lớp tế bào thần kinh nhân tạo này thành một mạng lưới rộng lớn các kết nối phát triển. Và các mô hình sắp xếp dữ liệu ở các cấp độ vượt xa những gì tâm trí con người có thể làm theo.
Hiểu cách các mô hình hoạt động quan trọng trong một số ứng dụng hơn các ứng dụng khác. Lo lắng về việc Amazon có đưa ra đề xuất hoàn hảo cho món quà sinh nhật của dì bạn không giống nhau, chẳng hạn như lo lắng về độ tin cậy của các công cụ mà bác sĩ của bạn đang sử dụng để phát hiện khối u hoặc đau tim sắp tới.
Các nhà khoa học máy tính đang cố gắng nhiều cách tiếp cận để làm cho việc học sâu ít mờ hơn, ít nhất là với các đồng nghiệp của họ. Ví dụ, một mô hình về nguy cơ ung thư vú có thể sử dụng phương pháp bản đồ nhiệt, cho phép các nhà X quang phóng to vào các khu vực của hình ảnh chụp nhũ ảnh mà người mẫu chú ý khi đưa ra dự đoán. Mô hình sau đó có thể trích xuất và làm nổi bật các đoạn văn bản mô tả những gì nó nhìn thấy.
Các mô hình học tập sâu cũng có thể trình bày hình ảnh của các khu vực khác tương tự với các khu vực được nhắm mục tiêu này và sau đó các chuyên gia về con người có thể đánh giá các lựa chọn của máy. Một kỹ thuật phổ biến khác áp dụng toán học dễ hiểu hơn ngay lập tức cho các tập hợp con của dữ liệu để tính gần đúng cách mô hình học sâu đang xử lý toàn bộ dữ liệu.
Chúng tôi sẽ tìm hiểu thêm về những lời giải thích có sức thuyết phục đối với con người khi những mô hình này được tích hợp vào sự chăm sóc và chúng ta có thể thấy tâm trí con người có thể giúp kiểm soát và xác thực dự đoán của họ như thế nào, Nott Barzilay nói.
Tại London, một nhóm từ Bệnh viện Mắt Moorfields và DeepMind, một công ty con của công ty mẹ Google, Alphabet, cũng tìm cách đưa ra những lời giải thích sâu sắc. Họ đã sử dụng học tập sâu để quét mắt bệnh nhân. Hệ thống này thực hiện quét mắt ba chiều, phân tích chúng và chọn các trường hợp cần giới thiệu khẩn cấp và nó hoạt động tốt hoặc tốt hơn các chuyên gia về con người. Mô hình đưa ra và đánh giá một số giải thích có thể có cho mỗi chẩn đoán và cho thấy nó đã dán nhãn các bộ phận của mắt bệnh nhân như thế nào.
CÀNG NGÀY, BẠN CÀNG NỔI GIẬN VỚI NHỮNG NGƯỜI CHỈ CẦN NÉM MÌ SPAGHETTI VÀO TƯỜNG VÀ GỌI ĐÓ LÀ LỜI GIẢI THÍCH.
ZACHARY LIPTON
Theo Anna Goldenberg, một nhà khoa học cao cấp về di truyền học và sinh học bộ gen tại Viện nghiên cứu SickKids ở Toronto, người đang hợp tác, nói rằng, chiến lược chung là mang lại học tập sâu cho phòng khám. với các bác sĩ lâm sàng để xây dựng một mô hình có thể dự đoán ngừng tim . Tôi nghĩ chúng tôi muốn cả hai. Tôi nghĩ rằng nó có thể đạt được.
Các mô hình như Mass General's và Moorfields được thiết kế tốt, với đầu vào của bác sĩ và kết quả lâm sàng trong các ấn phẩm khoa học được đánh giá ngang hàng, và chúng dựa trên nền tảng kỹ thuật vững chắc. Nhưng một vài nỗ lực về khả năng diễn giải sẽ làm cho đến nay, Lipton nói.
Thường xuyên hơn, những diễn giải như vậy không cho thấy mối liên hệ thực sự giữa dữ liệu đi vào và những gì xuất hiện. Về cơ bản, mọi người đã nhìn vào những bức ảnh đẹp và chọn một bức ảnh trông giống như những gì họ muốn thấy ở nơi đầu tiên. Càng ngày, bạn càng quấn quýt với mọi người chỉ cần ném mì spaghetti vào tường và gọi đó là lời giải thích.
TỪ HỘP ĐEN ĐẾN THẾ GIỚI THỰC
E vén nếu máy tính của các nhà khoa học tìm thấy một cách để chứng minh làm thế nào một sâu công trình công cụ học tập, các bác sĩ sẽ có tiếng nói cuối cùng về việc giải thích là đủ. Các bác sĩ không chỉ quan tâm đến độ chính xác về mặt lý thuyết mà họ cần biết hệ thống hoạt động trong thế giới thực.
Ví dụ, khi các bác sĩ đang cố gắng phát hiện một khối u nhỏ hoặc có dấu hiệu sớm bị ngừng tim sắp tới, dương tính giả không có vấn đề gì, bởi vì các bác sĩ lâm sàng cố gắng tránh phát hiện ra những điều muộn màng, Golden nói. Tuy nhiên, nhưng phủ định sai là một vấn đề rất lớn. Tuy nhiên, nếu tỷ lệ dương tính giả quá cao, thì các bác sĩ có thể không chú ý đến hệ thống.
Khi các bác sĩ nhìn thấy các yếu tố lâm sàng được xem xét trong hệ thống học tập sâu, họ sẽ dễ dàng giải thích kết quả hơn. Không hiểu điều đó, họ nghi ngờ, Golden Goldenberg nói. Họ không cần phải hiểu chính xác cách thức hoạt động của hệ thống hoặc cách học sâu. Họ cần hiểu làm thế nào hệ thống sẽ đưa ra quyết định so với họ. Vì vậy, họ sẽ ném một số trường hợp chống lại hệ thống và xem những gì nó làm và sau đó xem liệu họ có tin tưởng nó hay không.
Các nghiên cứu sâu nên bắt đầu bằng cách phân tích số lượng lớn hồ sơ y tế hiện có, phù hợp, các chuyên gia nói. Trong một số trường hợp, chẳng hạn như mô hình ngừng tim của Goldenberg, cô nói rằng bước tiếp theo có thể là chạy thử nghiệm trong đó, chúng tôi có thể cho phép hệ thống chạy, lấy đầu vào thời gian thực nhưng không đưa ra bất kỳ phản hồi nào cho bác sĩ lâm sàng và gặp sự khác biệt giữa thực tiễn và những gì hệ thống của chúng tôi dự đoán.
Trước khi chúng ta chỉ tay quá nhiều vào AI, chúng ta nên xem xét tất cả các thực tiễn khác đã chín muồi với dương tính giả và phủ định sai, và tất cả các thực tiễn khác là hộp đen, dựa trên các ấn phẩm mà thực tế vài bác sĩ đọc chi tiết, Chuyên gia nói rằng Isaac Kohane, một nhà sinh học và bác sĩ tại Trường Y Harvard.
Bởi vì AI mới được đưa vào thực tế, nó đã không nhìn thấy loại thử nghiệm giống như một số công nghệ khác, Kohane cho biết thêm. Vì nó không giống như xét nghiệm máu hoặc xét nghiệm hình ảnh, hệ thống chăm sóc sức khỏe hoặc cơ quan quản lý vẫn chưa tìm ra cách đúng để đảm bảo rằng chúng tôi biết rằng nó an toàn chấp nhận được, dù chấp nhận được.
Kohane nói rằng mối quan tâm lớn nhất của anh là không ai thực sự biết các mô hình mới hoạt động tốt như thế nào. Chúng tôi nên lo lắng hơn về tỷ lệ dương tính giả là gì và tỷ lệ âm tính giả theo thời gian của các chương trình này là gì, ông nói thêm, vì vậy ngay cả khi chúng được sử dụng trong thời trang hộp đen như phần còn lại của y học, chúng là đủ đáng tin cậy
Vẫn còn rất nhiều công việc cần thiết để đánh giá hiệu suất của các mô hình. Một nghiên cứu năm 2019 trên Lancet Digital Health, đã phân tích kết quả từ 69 nghiên cứu về các công cụ học sâu y tế, cho thấy các mô hình thực hiện tốt như các chuyên gia chăm sóc sức khỏe. Nhưng các tác giả của bài báo cũng cảnh báo rằng rất ít nghiên cứu đọ sức với các người mẫu đối đầu với các chuyên gia về con người trên cùng một bộ dữ liệu.
Những nghiên cứu như vậy cũng có thể bỏ lỡ nhiều vấn đề tinh tế nhưng quan trọng và chúng thường dựa trên những giả định run rẩy, Lipton nói. Một vấn đề lớn: Độ chính xác của một mô hình chỉ có ý nghĩa như dữ liệu mà nó dựa trên. Ông nói sự thật là bạn thậm chí không có dữ liệu lịch sử đại diện cho bất kỳ quá trình thực tế nào, ông nói. Bạn có một số loại dữ liệu Frankenstein kỳ lạ được ghép lại với nhau từ một loạt các nguồn.
SỰ CỘNG SINH GIỮA MÁY VÀ BÁC SĨ
G iven học hỏi sâu về sức mạnh ngày càng tăng và những lo lắng mà nó gây ra, những người gác cổng y tế sẽ nhìn nhận công nghệ như thế nào?
Câu chuyện về hộp đen nhận được rất nhiều sự nhấn mạnh, kể rằng Eric Topol, giám đốc của Viện nghiên cứu dịch thuật Scripps ở La Jolla, California. Câu hỏi đặt ra là, liệu chúng ta có giữ được con tin để giải thích được trước khi chúng có thể được sử dụng trong y học không? Tôi không biết câu trả lời.
Nếu các thử nghiệm trong tương lai xác nhận các mô hình này, ông nói, sẽ có mọi lý do để đưa chúng tới phòng khám với hy vọng đạt được sự cộng sinh hạnh phúc giữa bác sĩ và máy móc ngay cả khi bác sĩ không biết tại sao mô hình hoạt động.
Tuy nhiên, bất cứ khi nào bạn dựa vào máy móc đều có một trở ngại, bởi vì các bác sĩ đã quen với việc kiểm soát mọi thứ, Khi bạn nói: 'Máy có thể làm điều này tốt như bạn, hoặc có khả năng tốt hơn nữa', có sự thiên vị chống lại điều đó. Bằng chứng áp đảo là một cách để đối phó với sự thiên vị tiêu cực đó.
Mô tả về vấn đề có thể mang theo sự thiên vị của riêng họ. Bản thân thuật ngữ 'hộp đen' có một chút thay đổi tiêu cực, ông nói, ông Lehman của Mass General. Chúng tôi không biết những gì ở đó và chúng tôi muốn điền thông tin vào đó. Nhưng tôi nghĩ thuật ngữ này thật đáng tiếc. Mặc dù các bác sĩ lâm sàng có thể không hiểu làm thế nào các công cụ đưa ra mọi quyết định, nhưng cô nói thêm, nếu họ có thể chứng minh các công cụ này hoạt động, thì chính nó có thể dạy chúng ta những lời giải thích mới. Chúng ta chỉ cần nghĩ khác đi.
BẤT CỨ KHI NÀO BẠN DỰA VÀO MÁY MÓC ĐỀU CÓ MỘT TRỞ NGẠI, BỞI VÌ CÁC BÁC SĨ ĐÃ QUEN KIỂM SOÁT MỌI THỨ.
ERIC TOPOL
Ngày nay, y học từ bỏ một lượng lớn dữ liệu trong hồ sơ sức khỏe điện tử, ống nghiệm và máy X-quang, Lehman chỉ ra. Nếu chúng ta có thể bắt đầu rút ra dữ liệu phong phú đó và có thể dự đoán nhiều hơn về việc ai sẽ sống và ai sẽ chết, ai sẽ cần sự can thiệp này và ai cần thử nghiệm đó, cô nói thêm, chúng ta hoàn toàn có thể thay đổi toàn bộ mô hình chăm sóc sức khỏe.
Peter Thomas, giám đốc đổi mới kỹ thuật số tại Bệnh viện Mắt Moorfields cho biết, những ảnh hưởng sẽ sâu sắc nhất đối với những người có ít hoặc không tiếp cận trực tiếp với các bác sĩ. Và các công cụ chẩn đoán mắt của Moorfields, ông nói thêm, có thể giúp các bác sĩ tập trung vào những bệnh nhân cần sự giúp đỡ của họ nhất.
Những người ủng hộ thấy việc áp dụng sắp tới, và sớm. Trong các nhiệm vụ như phân tích hình ảnh chụp quang tuyến vú tại Mass General, các hệ thống học sâu đã tốt hơn con người, Barzilay nói. Cách thức tốt hơn con người.
Các mô hình hiện tại của chúng tôi rất phức tạp và chúng có thể chụp được các mẫu hình ảnh tinh tế đến mức mắt người có thể không thể hiểu được chúng, cô nói thêm. Có thực sự có nghĩa là chúng ta không nên hưởng lợi từ họ vì khả năng thị giác của chúng ta còn hạn chế?
Một khi các hệ thống học tập sâu chứng minh rõ ràng chúng hoạt động tốt như thế nào, thì tôi không nghĩ rằng khả năng diễn giải sẽ là một vấn đề, chuyên gia Bar Barayay nói. Nhiều lý do khác có thể ngăn việc áp dụng, nhưng khía cạnh hộp đen sẽ không phải là lý do chính.
Học máy có thể biến đổi y học. Chúng ta có nên để nó?
[Nguồn ảnh: interstid / iStock; hakkiarslan / iStock]
BỞI ERIC BENDER, UNDARKĐỌC LÂU
Tôi có các phòng khám trên khắp thế giới, một loại trí thông minh nhân tạo được gọi là học sâu đang bắt đầu bổ sung hoặc thay thế con người trong các nhiệm vụ phổ biến như phân tích hình ảnh y tế. Vừa qua, tại Bệnh viện Đa khoa Massachusetts ở Boston, mỗi một trong số 50.000 hình ảnh chụp quang tuyến vú chúng tôi thực hiện hàng năm được xử lý thông qua mô hình học tập sâu của chúng tôi và thông tin đó được cung cấp cho bác sĩ X quang, ông Constance Lehman, trưởng khoa chẩn đoán hình ảnh của bệnh viện .
Trong học tập sâu, một tập hợp con của một loại trí tuệ nhân tạo được gọi là học máy, các mô hình máy tính về cơ bản tự dạy chúng để đưa ra dự đoán từ các tập dữ liệu lớn. Sức mạnh thô của công nghệ đã được cải thiện đáng kể trong những năm gần đây và giờ đây nó được sử dụng trong mọi thứ, từ chẩn đoán y tế đến mua sắm trực tuyến đến xe tự hành.
Nhưng các công cụ học tập sâu cũng đưa ra những câu hỏi đáng lo ngại vì chúng giải quyết vấn đề theo cách mà con người không thể luôn tuân theo. Nếu kết nối giữa dữ liệu bạn nạp vào mô hình và đầu ra mà nó cung cấp không thể hiểu được thì ẩn giấu bên trong một cái gọi là hộp đen, làm sao nó có thể tin cậy được? Trong số các nhà nghiên cứu, ngày càng có nhiều lời kêu gọi để làm rõ các công cụ học tập sâu đưa ra quyết định như thế nào và một cuộc tranh luận về những gì có thể giải thích được như vậy và khi nào thực sự cần thiết. Các cổ phần đặc biệt cao trong y học, nơi cuộc sống sẽ ở trên đường.
CÁC CÔNG CỤ HỌC TẬP SÂU CŨNG ĐƯA RA NHỮNG CÂU HỎI ĐÁNG LO NGẠI VÌ CHÚNG GIẢI QUYẾT VẤN ĐỀ THEO CÁCH MÀ CON NGƯỜI KHÔNG THỂ LUÔN TUÂN THEO.
Tuy nhiên, lợi ích tiềm năng là rõ ràng. Ví dụ, trong chương trình chụp nhũ ảnh của Mass General, mô hình học sâu hiện tại giúp phát hiện các mô vú dày đặc, một yếu tố nguy cơ gây ung thư. Và Lehman và Regina Barzilay, một nhà khoa học máy tính tại Viện Công nghệ Massachusetts, đã tạo ra một mô hình học tập sâu khác để dự đoán nguy cơ phát triển ung thư vú của phụ nữ trong 5 năm qua, một thành phần quan trọng trong việc lên kế hoạch chăm sóc. Trong một nghiên cứu hồi cứu năm 2019 về chụp quang tuyến vú từ khoảng 40.000 phụ nữ, các nhà nghiên cứu đã tìm thấy hệ thống học tập sâu vượt trội so với phương pháp tiêu chuẩn vàng hiện nay trên bộ thử nghiệm của khoảng 4.000 phụ nữ này. Bây giờ trải qua thử nghiệm thêm, mô hình mới có thể bước vào thực hành lâm sàng thông thường tại bệnh viện.
Đối với cuộc tranh luận về việc liệu con người có thực sự hiểu hệ thống học tập sâu hay không, Barzilay ngồi vững trong trại rằng điều đó là có thể. Cô gọi vấn đề hộp đen là huyền thoại.
Một phần của huyền thoại, cô nói, là các hệ thống học tập sâu không thể giải thích kết quả của họ. Nhưng có rất nhiều phương pháp trong ngôn ngữ máy cho phép bạn diễn giải kết quả, cô nói. Một phần khác của huyền thoại, theo ý kiến của cô, là các bác sĩ phải hiểu làm thế nào hệ thống đưa ra quyết định của mình để sử dụng nó. Nhưng y học được nhồi nhét bằng các công nghệ tiên tiến hoạt động theo cách mà các bác sĩ lâm sàng thực sự không hiểu được, ví dụ, hình ảnh cộng hưởng từ (MRI) thu thập dữ liệu chụp nhũ ảnh bắt đầu.
Điều đó không trả lời mối quan tâm của tất cả các bác sĩ. Nhiều công cụ học máy vẫn là hộp đen, dùng để đưa ra phán quyết mà không có bất kỳ lời biện minh nào kèm theo, ghi chú một nhóm các bác sĩ và nhà nghiên cứu trong một bài báo gần đây trên BMJ Clinical Research . Nhiều người nghĩ rằng, như một công nghệ mới, gánh nặng của bằng chứng là học máy để giải thích cho những dự đoán của nó, các tác giả của bài báo tiếp tục. Nếu các bác sĩ không hiểu tại sao thuật toán đưa ra chẩn đoán, vậy tại sao bệnh nhân nên tin tưởng vào quá trình điều trị được đề nghị?
Và trong số các nhà khoa học máy tính nghiên cứu về máy học, thì cuộc thảo luận về khả năng diễn giải này đã biến mất hoàn toàn, ông Zachary Lipton, một nhà khoa học máy tính tại Đại học Carnegie Mellon nói. Thông thường, các mô hình được cung cấp để có thể giải thích đơn giản là không hoạt động tốt, ông nói, và có sự nhầm lẫn về những gì hệ thống thực sự cung cấp.
Cạn chúng tôi có những người trong lĩnh vực có khả năng quay quây nhưng thực sự không biết họ đang làm gì, anh ấy nói thêm, và thực sự không hiểu nền tảng của những gì họ đang làm.
LÀM SÁNG TỎ VIỆC HỌC SÂU
Các công cụ học tập được xây dựng dựa trên khái niệm mạng lưới thần kinh, ban đầu được lấy cảm hứng từ bộ não con người và bao gồm các nút hoạt động hơi giống các tế bào não. Các mô hình học tập sâu tập hợp nhiều lớp tế bào thần kinh nhân tạo này thành một mạng lưới rộng lớn các kết nối phát triển. Và các mô hình sắp xếp dữ liệu ở các cấp độ vượt xa những gì tâm trí con người có thể làm theo.
Hiểu cách các mô hình hoạt động quan trọng trong một số ứng dụng hơn các ứng dụng khác. Lo lắng về việc Amazon có đưa ra đề xuất hoàn hảo cho món quà sinh nhật của dì bạn không giống nhau, chẳng hạn như lo lắng về độ tin cậy của các công cụ mà bác sĩ của bạn đang sử dụng để phát hiện khối u hoặc đau tim sắp tới.
Các nhà khoa học máy tính đang cố gắng nhiều cách tiếp cận để làm cho việc học sâu ít mờ hơn, ít nhất là với các đồng nghiệp của họ. Ví dụ, một mô hình về nguy cơ ung thư vú có thể sử dụng phương pháp bản đồ nhiệt, cho phép các nhà X quang phóng to vào các khu vực của hình ảnh chụp nhũ ảnh mà người mẫu chú ý khi đưa ra dự đoán. Mô hình sau đó có thể trích xuất và làm nổi bật các đoạn văn bản mô tả những gì nó nhìn thấy.
Các mô hình học tập sâu cũng có thể trình bày hình ảnh của các khu vực khác tương tự với các khu vực được nhắm mục tiêu này và sau đó các chuyên gia về con người có thể đánh giá các lựa chọn của máy. Một kỹ thuật phổ biến khác áp dụng toán học dễ hiểu hơn ngay lập tức cho các tập hợp con của dữ liệu để tính gần đúng cách mô hình học sâu đang xử lý toàn bộ dữ liệu.
Chúng tôi sẽ tìm hiểu thêm về những lời giải thích có sức thuyết phục đối với con người khi những mô hình này được tích hợp vào sự chăm sóc và chúng ta có thể thấy tâm trí con người có thể giúp kiểm soát và xác thực dự đoán của họ như thế nào, Nott Barzilay nói.
Tại London, một nhóm từ Bệnh viện Mắt Moorfields và DeepMind, một công ty con của công ty mẹ Google, Alphabet, cũng tìm cách đưa ra những lời giải thích sâu sắc. Họ đã sử dụng học tập sâu để quét mắt bệnh nhân. Hệ thống này thực hiện quét mắt ba chiều, phân tích chúng và chọn các trường hợp cần giới thiệu khẩn cấp và nó hoạt động tốt hoặc tốt hơn các chuyên gia về con người. Mô hình đưa ra và đánh giá một số giải thích có thể có cho mỗi chẩn đoán và cho thấy nó đã dán nhãn các bộ phận của mắt bệnh nhân như thế nào.
CÀNG NGÀY, BẠN CÀNG NỔI GIẬN VỚI NHỮNG NGƯỜI CHỈ CẦN NÉM MÌ SPAGHETTI VÀO TƯỜNG VÀ GỌI ĐÓ LÀ LỜI GIẢI THÍCH.
ZACHARY LIPTON
Theo Anna Goldenberg, một nhà khoa học cao cấp về di truyền học và sinh học bộ gen tại Viện nghiên cứu SickKids ở Toronto, người đang hợp tác, nói rằng, chiến lược chung là mang lại học tập sâu cho phòng khám. với các bác sĩ lâm sàng để xây dựng một mô hình có thể dự đoán ngừng tim . Tôi nghĩ chúng tôi muốn cả hai. Tôi nghĩ rằng nó có thể đạt được.
Các mô hình như Mass General's và Moorfields được thiết kế tốt, với đầu vào của bác sĩ và kết quả lâm sàng trong các ấn phẩm khoa học được đánh giá ngang hàng, và chúng dựa trên nền tảng kỹ thuật vững chắc. Nhưng một vài nỗ lực về khả năng diễn giải sẽ làm cho đến nay, Lipton nói.
Thường xuyên hơn, những diễn giải như vậy không cho thấy mối liên hệ thực sự giữa dữ liệu đi vào và những gì xuất hiện. Về cơ bản, mọi người đã nhìn vào những bức ảnh đẹp và chọn một bức ảnh trông giống như những gì họ muốn thấy ở nơi đầu tiên. Càng ngày, bạn càng quấn quýt với mọi người chỉ cần ném mì spaghetti vào tường và gọi đó là lời giải thích.
TỪ HỘP ĐEN ĐẾN THẾ GIỚI THỰC
E vén nếu máy tính của các nhà khoa học tìm thấy một cách để chứng minh làm thế nào một sâu công trình công cụ học tập, các bác sĩ sẽ có tiếng nói cuối cùng về việc giải thích là đủ. Các bác sĩ không chỉ quan tâm đến độ chính xác về mặt lý thuyết mà họ cần biết hệ thống hoạt động trong thế giới thực.
Ví dụ, khi các bác sĩ đang cố gắng phát hiện một khối u nhỏ hoặc có dấu hiệu sớm bị ngừng tim sắp tới, dương tính giả không có vấn đề gì, bởi vì các bác sĩ lâm sàng cố gắng tránh phát hiện ra những điều muộn màng, Golden nói. Tuy nhiên, nhưng phủ định sai là một vấn đề rất lớn. Tuy nhiên, nếu tỷ lệ dương tính giả quá cao, thì các bác sĩ có thể không chú ý đến hệ thống.
Khi các bác sĩ nhìn thấy các yếu tố lâm sàng được xem xét trong hệ thống học tập sâu, họ sẽ dễ dàng giải thích kết quả hơn. Không hiểu điều đó, họ nghi ngờ, Golden Goldenberg nói. Họ không cần phải hiểu chính xác cách thức hoạt động của hệ thống hoặc cách học sâu. Họ cần hiểu làm thế nào hệ thống sẽ đưa ra quyết định so với họ. Vì vậy, họ sẽ ném một số trường hợp chống lại hệ thống và xem những gì nó làm và sau đó xem liệu họ có tin tưởng nó hay không.
Các nghiên cứu sâu nên bắt đầu bằng cách phân tích số lượng lớn hồ sơ y tế hiện có, phù hợp, các chuyên gia nói. Trong một số trường hợp, chẳng hạn như mô hình ngừng tim của Goldenberg, cô nói rằng bước tiếp theo có thể là chạy thử nghiệm trong đó, chúng tôi có thể cho phép hệ thống chạy, lấy đầu vào thời gian thực nhưng không đưa ra bất kỳ phản hồi nào cho bác sĩ lâm sàng và gặp sự khác biệt giữa thực tiễn và những gì hệ thống của chúng tôi dự đoán.
Trước khi chúng ta chỉ tay quá nhiều vào AI, chúng ta nên xem xét tất cả các thực tiễn khác đã chín muồi với dương tính giả và phủ định sai, và tất cả các thực tiễn khác là hộp đen, dựa trên các ấn phẩm mà thực tế vài bác sĩ đọc chi tiết, Chuyên gia nói rằng Isaac Kohane, một nhà sinh học và bác sĩ tại Trường Y Harvard.
Bởi vì AI mới được đưa vào thực tế, nó đã không nhìn thấy loại thử nghiệm giống như một số công nghệ khác, Kohane cho biết thêm. Vì nó không giống như xét nghiệm máu hoặc xét nghiệm hình ảnh, hệ thống chăm sóc sức khỏe hoặc cơ quan quản lý vẫn chưa tìm ra cách đúng để đảm bảo rằng chúng tôi biết rằng nó an toàn chấp nhận được, dù chấp nhận được.
Kohane nói rằng mối quan tâm lớn nhất của anh là không ai thực sự biết các mô hình mới hoạt động tốt như thế nào. Chúng tôi nên lo lắng hơn về tỷ lệ dương tính giả là gì và tỷ lệ âm tính giả theo thời gian của các chương trình này là gì, ông nói thêm, vì vậy ngay cả khi chúng được sử dụng trong thời trang hộp đen như phần còn lại của y học, chúng là đủ đáng tin cậy
Vẫn còn rất nhiều công việc cần thiết để đánh giá hiệu suất của các mô hình. Một nghiên cứu năm 2019 trên Lancet Digital Health, đã phân tích kết quả từ 69 nghiên cứu về các công cụ học sâu y tế, cho thấy các mô hình thực hiện tốt như các chuyên gia chăm sóc sức khỏe. Nhưng các tác giả của bài báo cũng cảnh báo rằng rất ít nghiên cứu đọ sức với các người mẫu đối đầu với các chuyên gia về con người trên cùng một bộ dữ liệu.
Những nghiên cứu như vậy cũng có thể bỏ lỡ nhiều vấn đề tinh tế nhưng quan trọng và chúng thường dựa trên những giả định run rẩy, Lipton nói. Một vấn đề lớn: Độ chính xác của một mô hình chỉ có ý nghĩa như dữ liệu mà nó dựa trên. Ông nói sự thật là bạn thậm chí không có dữ liệu lịch sử đại diện cho bất kỳ quá trình thực tế nào, ông nói. Bạn có một số loại dữ liệu Frankenstein kỳ lạ được ghép lại với nhau từ một loạt các nguồn.
SỰ CỘNG SINH GIỮA MÁY VÀ BÁC SĨ
G iven học hỏi sâu về sức mạnh ngày càng tăng và những lo lắng mà nó gây ra, những người gác cổng y tế sẽ nhìn nhận công nghệ như thế nào?
Câu chuyện về hộp đen nhận được rất nhiều sự nhấn mạnh, kể rằng Eric Topol, giám đốc của Viện nghiên cứu dịch thuật Scripps ở La Jolla, California. Câu hỏi đặt ra là, liệu chúng ta có giữ được con tin để giải thích được trước khi chúng có thể được sử dụng trong y học không? Tôi không biết câu trả lời.
Nếu các thử nghiệm trong tương lai xác nhận các mô hình này, ông nói, sẽ có mọi lý do để đưa chúng tới phòng khám với hy vọng đạt được sự cộng sinh hạnh phúc giữa bác sĩ và máy móc ngay cả khi bác sĩ không biết tại sao mô hình hoạt động.
Tuy nhiên, bất cứ khi nào bạn dựa vào máy móc đều có một trở ngại, bởi vì các bác sĩ đã quen với việc kiểm soát mọi thứ, Khi bạn nói: 'Máy có thể làm điều này tốt như bạn, hoặc có khả năng tốt hơn nữa', có sự thiên vị chống lại điều đó. Bằng chứng áp đảo là một cách để đối phó với sự thiên vị tiêu cực đó.
Mô tả về vấn đề có thể mang theo sự thiên vị của riêng họ. Bản thân thuật ngữ 'hộp đen' có một chút thay đổi tiêu cực, ông nói, ông Lehman của Mass General. Chúng tôi không biết những gì ở đó và chúng tôi muốn điền thông tin vào đó. Nhưng tôi nghĩ thuật ngữ này thật đáng tiếc. Mặc dù các bác sĩ lâm sàng có thể không hiểu làm thế nào các công cụ đưa ra mọi quyết định, nhưng cô nói thêm, nếu họ có thể chứng minh các công cụ này hoạt động, thì chính nó có thể dạy chúng ta những lời giải thích mới. Chúng ta chỉ cần nghĩ khác đi.
BẤT CỨ KHI NÀO BẠN DỰA VÀO MÁY MÓC ĐỀU CÓ MỘT TRỞ NGẠI, BỞI VÌ CÁC BÁC SĨ ĐÃ QUEN KIỂM SOÁT MỌI THỨ.
ERIC TOPOL
Ngày nay, y học từ bỏ một lượng lớn dữ liệu trong hồ sơ sức khỏe điện tử, ống nghiệm và máy X-quang, Lehman chỉ ra. Nếu chúng ta có thể bắt đầu rút ra dữ liệu phong phú đó và có thể dự đoán nhiều hơn về việc ai sẽ sống và ai sẽ chết, ai sẽ cần sự can thiệp này và ai cần thử nghiệm đó, cô nói thêm, chúng ta hoàn toàn có thể thay đổi toàn bộ mô hình chăm sóc sức khỏe.
Peter Thomas, giám đốc đổi mới kỹ thuật số tại Bệnh viện Mắt Moorfields cho biết, những ảnh hưởng sẽ sâu sắc nhất đối với những người có ít hoặc không tiếp cận trực tiếp với các bác sĩ. Và các công cụ chẩn đoán mắt của Moorfields, ông nói thêm, có thể giúp các bác sĩ tập trung vào những bệnh nhân cần sự giúp đỡ của họ nhất.
Những người ủng hộ thấy việc áp dụng sắp tới, và sớm. Trong các nhiệm vụ như phân tích hình ảnh chụp quang tuyến vú tại Mass General, các hệ thống học sâu đã tốt hơn con người, Barzilay nói. Cách thức tốt hơn con người.
Các mô hình hiện tại của chúng tôi rất phức tạp và chúng có thể chụp được các mẫu hình ảnh tinh tế đến mức mắt người có thể không thể hiểu được chúng, cô nói thêm. Có thực sự có nghĩa là chúng ta không nên hưởng lợi từ họ vì khả năng thị giác của chúng ta còn hạn chế?
Một khi các hệ thống học tập sâu chứng minh rõ ràng chúng hoạt động tốt như thế nào, thì tôi không nghĩ rằng khả năng diễn giải sẽ là một vấn đề, chuyên gia Bar Barayay nói. Nhiều lý do khác có thể ngăn việc áp dụng, nhưng khía cạnh hộp đen sẽ không phải là lý do chính.
Nhận xét
Đăng nhận xét