Hội Nội tiết sinh sản và Vô sinh TPHCM
HOSREM - Ho Chi Minh City Society for Reproductive Medicine

Tin tức
on Thursday 20-02-2025 7:26am
Viết bởi: Khoa Pham
Danh mục: Tin quốc tế
ThS. Nguyễn Huỳnh Cẩm Tú – IVF Tâm Anh
 
Giới thiệu
Trí thông minh nhân tạo (artificial intelligence - AI) có tiềm năng chuẩn hóa và tự động hóa những khía cạnh quan trọng trong điều trị hiếm muộn, giúp cải thiện kết quả lâm sàng. Một ứng dụng của AI trong hỗ trợ sinh sản (assisted reproductive technology - ART) là sử dụng công cụ máy học (machine learning - ML) để đánh giá phôi. Việc triển khai công cụ này trong lâm sàng đòi hỏi phải nhận thức được các vấn đề đạo đức mà công nghệ này đặt ra, cũng như phát triển các chiến lược để quản lý. Tuy nhiên, cho đến nay, có rất ít tài liệu được công bố về các khía cạnh đạo đức của việc sử dụng ML trong đánh giá phôi. Bài tổng quan này báo cáo về các quan ngại chính như vô nhân tính hóa quá trình sinh sản, sai lệch trong thuật toán, trách nhiệm, tính minh bạch và khả năng giải thích, việc giảm kỹ năng và tính công bằng.
 
Vô nhân tính hóa
Một lo ngại lớn về AI là việc sử dụng nó có thể làm mất đi tính nhân văn. Các thuật toán máy tính có thể không đối xử với chúng ta theo cách mà con người xứng đáng được nhận. Tuy nhiên, AI không đưa ra bất kỳ đánh giá nào về bệnh nhân mà là phôi của bệnh nhân. Nhiều nhà đạo đức học đã lập luận, thái độ của chúng ta đối với người trưởng thành không nhất thiết phải áp dụng cho phôi người vì chính nhân cách của con người (khả năng tư duy lý trí, nhận thức, cảm giác) mới là thứ khiến chúng ta xứng đáng được tôn trọng. Do đó, sự tôn trọng dành cho con người không nhất thiết phải mở rộng tới phôi người.
Ngoài ra, các chuyên gia y tế có đối xử với phôi một cách tôn trọng hơn hệ thống AI hay không vẫn chưa rõ. Việc đưa ra các quyết định lớn về một con người chỉ dựa trên các đặc điểm hình ảnh của họ sẽ là sự thiếu tôn trọng, nhưng quá trình này là không thể tránh khỏi trong chọn lựa phôi, dù được thực hiện bởi con người hay AI.
 
Sai lệch
Các hệ thống AI có thể hiển thị các dạng sai lệch dưới nhiều hình thức khác nhau. Đầu tiên là mức độ hiệu quả của ML sẽ khác nhau trên các nhóm dân số khác nhau. Những thuật toán công bằng có thể cân bằng hiệu suất giữa các nhóm nhưng cũng có thể làm giảm hiệu suất ở nhóm tốt mà không cải thiện được nhóm kém. Ngoài ra, ML có thể sai biệt nếu đầu ra của chúng theo dõi các đặc điểm không liên quan đến khả năng thành công của ART, như đặc điểm phôi không thực sự có lợi, giới tính phôi, phôi có đặc điểm bệnh lý trùng hợp với khả năng làm tổ cao hơn,….
 
Trách nhiệm
Vấn đề trách nhiệm được đặt ra nếu ML làm kéo dài thời gian mang thai, giảm tỷ lệ sinh sống, âm tính giả, sảy thai hoặc trẻ bị nhiễm sắc thể bất thường. Chúng ta có thể giữ nguyên  trách nhiệm hiện tại bằng cách sử dụng ML như một công cụ hỗ trợ và trách nhiệm ra quyết định cuối cùng thuộc về chuyên viên phôi học (CVPH). Nhưng biện pháp này không đảm bảo rằng CVPH sẽ kiểm tra kỹ lưỡng đầu ra của ML. Quan trọng hơn, nếu AI liên tục vượt trội hơn CVPH thì việc CVPH bác bỏ khuyến nghị của AI là không thích hợp, do đó việc CVPH tiếp tục chịu trách nhiệm về những quyết định phải theo AI sẽ không hợp lý. Tuy nhiên, nếu các công cụ ML vượt trội đáng kể so với CVPH, lợi ích cho bệnh nhân có thể quan trọng hơn việc có thể truy cứu trách nhiệm đối với kết quả không mong muốn hiếm hoi vẫn xảy ra.
Nguyên tắc của Liên Hợp Quốc về việc Sử dụng AI một cách Đạo đức vào năm 2022 khẳng định rằng các quyết định sống và chết không nên được giao cho máy móc. Tuy nhiên, các quyết định về việc phôi nào sẽ có cơ hội sống, theo một nghĩa nào đó, là việc tạo ra sự sống, chứ không phải về cái chết của người đã tồn tại. Tầm quan trọng của trách nhiệm đạo đức đối với quyết định về việc tạo ra sự sống vẫn là một câu hỏi chưa có lời giải.
 
Mất kỹ năng
Khi AI vượt trội hơn con người, việc CVPH dựa vào và tôn trọng các hệ thống AI là điều dễ hiểu. Tuy nhiên, điều này có thể dẫn đến sự suy giảm kỹ năng lâm sàng. Việc duy trì kỹ năng đánh giá phôi thủ công của CVPH sẽ là một biện pháp bảo vệ quan trọng nếu công nghệ thất bại, cũng như quản lý các vấn đề đạo đức khác, ví dụ: chiến lược giải quyết lo ngại về sai lệch của AI là thường xuyên kiểm tra hiệu suất của thuật toán.
 
Tính minh bạch và khả năng giải thích của công cụ đánh giá phôi ML
Các công cụ ML có thể xử lý lượng dữ liệu khổng lồ và đưa ra dự đoán hoặc quyết định dựa trên mô hình mà chúng nhận diện, nhưng cơ chế bên trong điều khiển quyết định này khó giải thích, gây khó khăn cho CVPH giúp bệnh nhân hiểu và quyết định hợp lý.
Có hai cách để giải quyết vấn đề này. Đầu tiên là hạn chế độ phức tạp của mô hình, nhưng có thể làm giảm hiệu quả. Cách thứ hai là tìm ra cách giải thích sau khi đã có kết quả, nhưng sẽ không thực sự giải thích những gì đang xảy ra trong mô hình.
Bên cạnh đó, tính minh bạch và khả năng giải thích từ quyết định của con người vốn thường không thể hoặc không giải thích đầy đủ, cũng như chúng ta thường tự biện minh cho quyết định của mình sau khi xảy ra. Vì vậy, tại sao chúng ta lại kỳ vọng mức độ minh bạch cao hơn từ các quyết định của AI so với con người. Ngoài ra, tính hiệu quả và tính hữu dụng được cho là có tầm quan trọng cao hơn tính minh bạch. Tuy nhiên, khi các mô hình có hiệu quả tương đương thì tính minh bạch là yếu tố ưu tiên để lựa chọn.
 
Tính minh bạch về việc sử dụng công cụ đánh giá phôi ML
Câu hỏi được đặt ra là bệnh nhân có nên được thông báo về việc sử dụng công cụ đánh giá phôi ML và thậm chí có nên yêu cầu bệnh nhân đồng ý rõ ràng về việc sử dụng các công cụ này hay không.
Thực tế, việc biết về mọi công cụ được sử dụng bởi chuyên gia không phải là yêu cầu thông thường trong các ngành nghề, và ngay cả trong lĩnh vực chăm sóc sức khỏe. Đôi khi người ta cũng cho rằng bệnh nhân không có quyền được biết về bất kỳ công cụ AI nào giúp các bác sĩ đưa ra khuyến nghị lâm sàng. Từ góc độ này, AI chỉ là một công cụ trong số nhiều công cụ có thể giúp các chuyên gia y tế đưa ra khuyến nghị, và không cần phải tiết lộ nó.
Tuy nhiên, một số bệnh nhân có thể phản đối việc sử dụng AI do những lo ngại về sai lệch của AI, những điều còn chưa hiểu rõ và tác động xã hội dài hạn có thể xảy ra. Vì vậy, cần xem xét liệu các trung tâm có nghĩa vụ duy trì lựa chọn đánh giá phôi thủ công theo yêu cầu của bệnh nhân hay không.
 
Quyền tiếp cận
Những công cụ AI không miễn phí. Tuy nhiên, nếu chúng cải thiện đáng kể kết quả điều trị, việc đối tượng nào có thể tiếp cận sẽ ảnh hưởng đến khả năng đạt được kết quả mong muốn này. Nhiều quốc gia cung cấp ít nhất một tài trợ công cộng cho điều trị vô sinh. Vì vậy, có thể cho rằng quyền tiếp cận các phương pháp điều trị hiệu quả là một vấn đề công bằng, và các can thiệp giúp cải thiện khả năng thành công nên được trợ cấp. Nhưng các công cụ hiện tại cải thiện khả năng có thai vẫn chưa rõ ràng, nên nếu các trung tâm thúc đẩy quá mức hoặc thậm chí phóng đại lợi ích của chúng, bệnh nhân có thể bị tác động để trả thêm tiền cho công nghệ có hiệu quả chưa được chứng minh , thì quyền tiếp cận này có thể là sự lợi dụng. Tuy nhiên, chúng ta có cơ sở để hy vọng rằng các công cụ đánh giá phôi ML cuối cùng sẽ mang lại lợi ích xác thực đáng kể, khi đó, đánh giá phôi ML có thể xứng đáng được chú ý đặc biệt về mặt đạo đức.
 
Kết luận
Mặc dù có những lợi ích lâm sàng tiềm năng, đánh giá phôi ML đặt ra những lo ngại đạo đức đáng kể cần chú ý cẩn thận, như mất tính nhân văn, sai lệch trong thuật toán, khoảng cách trách nhiệm, sự suy giảm kỹ năng, tính minh bạch và quyền tiếp cận công bằng. Những mối quan ngại này không đồng nghĩa với việc phản đối sử dụng công cụ ML trong đánh giá phôi, nhưng chúng nhấn mạnh rằng việc triển khai cần chú ý đến những vấn đề này, giảm thiểu chúng khi có thể, và đưa ra các quyết định có chủ ý, được cân nhắc về cách quản lý trách nhiệm đối với kết quả lâm sàng, cách giám sát hiệu suất của các công cụ ML và cách thông báo việc sử dụng chúng với bệnh nhân. Việc giám sát đạo đức liên tục, có sự tham gia của các triết gia, chuyên gia, bệnh nhân và các thành viên trong cộng đồng sẽ là yếu tố quan trọng để tận dụng có trách nhiệm những lợi ích của AI trong y học sinh sản.
 
Tài liệu tham khảo: Koplin JJ, Johnston M, Webb ANS, Whittaker A, Mills C. Ethics of artificial intelligence in embryo assessment: mapping the terrain. Hum Reprod. 2025 Feb 1;40(2):179-185. doi: 10.1093/humrep/deae264. PMID: 39657965. https://orcid.org/0000-0002-3786-0843

Các tin khác cùng chuyên mục:
TIN CẬP NHẬT
TIN CHUYÊN NGÀNH
LỊCH HỘI NGHỊ MỚI
Năm 2020

Cập nhật lịch tổ chức sự kiện và xuất bản ấn phẩm của ...

Năm 2020

Wyndham Legend Halong, Sáng thứ Bảy 22 . 3 . 2025 (8:30 - 11:45)

GIỚI THIỆU SÁCH MỚI

Sách ra mắt ngày 6 . 1 . 2025 và gửi đến quý hội viên trước ...

Y học sinh sản 59 - Bệnh truyền nhiễm và thai kỳ

Hội viên liên kết Bạch kim 2024
Hội viên liên kết Vàng 2024
Hội viên liên kết Bạc 2024
FACEBOOK