ילדים

הביצועים של ChatGPT והסיכון בשימוש בו במידע הקשור לתרופות (European Journal of Hospital Pharmacy)

הביא לפרסום יהונתן ניסן על פי המלצתו ובחירתו של פרופ' איל שוורצברג

מחקר חדש שפורסם ב- European Journal of Hospital Pharmacy הראה כי מתוך מדגם של 50 שאלות הקשורות לתרופות, ChatGPT ענה על רוב השאלות באופן שגוי או באופן שגוי חלקית. עורכי המחקר הסיקו מכך שהשימוש ביישומי בינה מלאכותית במידע לגבי תרופות כרגע אינו אפשרי, כל עוד נותרו חסמים משמעותיים בהם כגון תוכן שגוי, מחסור ברפרנסים וחוסר עקביות.

בעוד שהשימוש ביישומי בינה מלאכותית ומודלי שפה גדולים כמו ChatGPT הולך ומתגבר בשנים האחרונות, ונעשים ניסיונות להכניסו לכמעט כל תחום בחיינו, עולה בקרב רבים השאלה באשר למקומו בעולם הרפואה והרוקחות. המחקר ביקש לחקור את הביצועים והסיכונים הקשורים בשימוש ב-ChatGPT כדי לענות על שאלות הקשורות לתרופות.

מדגם של 50 שאלות הקשורות לתרופות הוזנו ב-ChatGPT והתשובות תועדו ודורגו על ידי שישה רוקחים בכירים בבתי חולים לפי אמינות התוכן (נכון, לא שלם, שקרי), יכולת ניהול החולים (אפשרי, לא מספק, לא אפשרי) וסיכונים (ללא סיכון, סיכון נמוך, סיכון גבוה). בנוסף, החוקרים בחנו את יכולת שחזור התשובות של ChatGPT, כך שהן נותחו בנקודות זמן שונות שוב ושוב (יום 1, יום 2, שבוע 2, שבוע 3).

בסך הכל, רק 13 מתוך 50 תשובות הציגו תוכן נכון והיה בהן מספיק מידע כדי לספק ניהול ללא סיכון לפגיעה בחולה. רוב התשובות היו שגויות (38%) או שהתוכן שלהן היה נכון חלקית (36%), ולא סופקו רפרנסים כלל בתשובות. סיכון גבוה לפגיעה בחולה היה סביר ב-26% מהמקרים והסיכון נקבע כנמוך ב-28% מהמקרים. בכל המקרים שסווגו כסיכון גבוה, ניתן היה לבצע פעולות על סמך המידע שסופק. התשובות של ChatGPT השתנו לאורך זמן כאשר הוזנו שוב ושוב, ורק שלוש מתוך 12 תשובות שנבדקו בנקודות זמן שונות היו זהות.

למחקר ב- BMJ Jounrals

 

 

 

0 תגובות

השאירו תגובה

רוצה להצטרף לדיון?
תרגישו חופשי לתרום!

כתיבת תגובה

מידע נוסף לעיונך

כתבות בנושאים דומים

הנך גולש/ת באתר כאורח/ת.

במידה והנך מנוי את/ה מוזמן/ת לבצע כניסה מזוהה וליהנות מגישה לכל התכנים המיועדים למנויים
להמשך גלישה כאורח סגור חלון זה