ChatGpt? “Tele sağlık için hazır değil” nedeni bu

Leila

Global Mod
Global Mod
“Konuşmalı yapay zekanın gelişmiş biçimi” ChatGpt, teletıp dünyasına dahil edilebilir mi? Bugün değil, ama potansiyeli büyümeye mahkum ve gelecekte kendine bir alan açabilir. Tabii tam da bu anda, medyanın spot ışığı ona ve çeşitli alanlarda birikmiş ‘başarılara’ odaklanmış olsa da, örneğin beyaz önlüklerin ‘ilaçları’ çevirmesine yardımcı olmak gibi küçük roller dışında ‘hazır değil’. ‘ ve klinik notları herkesin anlayabileceği şekilde daha net ve basit hale getirmek. ChatGpt’nin mevcut sınırları ve olası gelişimleri, Milano’daki Mario Negri Farmakolojik Araştırma Enstitüsü Tıbbi Bilişim Laboratuvarı başkanı Eugenio Santoro tarafından Adnkronos Salute’de vurgulanmıştır.

Dijital Sağlık uzmanı ayrıca ChatGpt ile etkileşime girdi ve şu anda sahip olduğu ‘biraz aldatıcı doğayı’ tespit edebildi. Cevabı bilmiyorsa, “yalan söylediğini bilerek yalan söylüyor ve iyi yalan söylüyor, çünkü size bilmediğini söylemiyor, rastgele bir yanıt veriyor” anlamında, Santoro gülümsüyor. “Sağlık sektöründeki yapay zekanın başka bir şey olduğunun açıklığa kavuşturulması önemlidir – şu anda ChatGpt değil. etkinliğine dair bazı kanıtlar var.Hepsi aynı yöne uygun değil ama sağlam bir araştırma hareketi var ve somut şeylerden bahsediyoruz.Büyük miktarda veriyi analiz eden ve yapabilen sistemlerden bahsediyoruz. neden ve sonuç arasındaki ilişkileri bulmak, ama aynı zamanda teşhis hakkında şu anda çok fazla çalışmanın yapıldığı alandır: en deneyimli doktorlar tarafından bile sunulanlar kadar güvenilir teşhis sağlayan sistemler vardır. resmi bir giriş için hala sınırlar bu araçların bakım yoluna girmesine rağmen, oraya ya da yavaş yavaş ulaşıyoruz”.

ChatGpt’ye gelince, “birçok kişi onu, diğer kaynaklardan ziyade bilimsel makaleler olabilecek içerikten öğrenen geleneksel bir makine öğrenimi sistemiyle karıştırıyor. Gerçekte durum pek de böyle değil. ChatGpt, klasik makine öğrenimi sistemi değil. Bir dil modeli sistemi: Yalnızca dile dayalıdır ve makine öğrenimi teknikleriyle eğitilmiştir, ancak belirli bir sözcük dizisinin olasılığını kendisinden önceki sözcüklerin bağlamına dayalı olarak özel olarak tahmin etmeye yöneliktir. okuduklarını anlamlandırmak”.

Ancak tüm bunların “bağlamsallaştırma ile hiçbir ilgisi yok – Santoro’nun altını çiziyor – ChatGpt bilimsel makaleleri referans olarak almıyor, anlamak, sentezlemek ve yorumlayabilmek için içeriklerini incelemeye gitmiyor ve bu içeriklere dayanarak cevap vermek. Ve bu, o ana kadar üretilen bilgilerin karar vermenin temel dayanağı olduğu tıp ve sağlık alanlarında büyük bir sınırlamadır.” Ve aslında “şu anda bunu hastaların sorularını yanıtlamak ve onlara destek vermek için bir sohbet robotu sistemi olarak öneren çok az kişi var, Babil tarzı”, bu uygulama geleneksel kaynak tabanlı makine öğrenimi ile eğitilmiş bir sohbet robotuna sahip, “ve daha da azı ChatGpt’i tanıya yardımcı olmak için hatta sadece ilaçlar hakkında bilgi vermek için önerenler”.


Sınırlar – ChatGpt’in sınırları nelerdir? Santoro denediği bazı örnekler veriyor: “Bir tweet’in kaç kez yayınlandığı ile tweet’in atıfta bulunduğu bilimsel makalenin literatürde yer alma olasılığı arasında herhangi bir ilişki olup olmadığını öğrenmek için ChatGpt sorgulandığında, bu tür raporların olduğunu söyledi.Şimdi, edebiyatı bilen herkes bunların olmadığını bilir.Ve bunun bibliyografik referanslarını vermemi istediğimde, bana uydurma referanslar verdi.Ya da daha doğrusu bibliyografik referanslar gerçekti. , ancak konuyla hiçbir ilgisi olmayan bilimsel makalelere yol açtı”. Ve birkaç kez oldu. “Bunu sağlık sektörüne uygularsak ne kadar tehlikeli olduğu ortaya çıkıyor”.

Bu, bu araçları sektöre sokma girişimi olmadığı anlamına gelmez. Santoro, şu anda “Sağlık uzmanları tarafından sağlanan verilere dayalı olarak klinik notlar ve raporlar oluşturabilen bir araç olarak ChatGpt’i öneren biri var” diyor – örneğin, Ansible Health adlı sanal bir klinik var. örneğin radyolojik raporları doğrulamak ve anlaşılması kolay açıklamalar üretmek için iş akışları içinde kullanırlar. Rapor yazanların en büyük sorunu ‘tıp doktoruna’ bağlı olmalarıdır. Daha net olmaları ve daha anlaşılır bir dil kullanmaları için ChatGpt şu anda gerçek bir destek alanı olabilir.Bunu bu şekilde yaşıyorlar ve bu şekilde verebileceği zarar o kadar yüksek değil.”


Sınavı geçer ama bu yüzden doktor olamaz – Ardından, diye devam ediyor Santoro, “ChatGpt’nin doktor olmak için test edildiği ve sınavı geçtiği doğru. Ancak aynı araştırmacılar bunun ‘doktor olabilecek’ bir araç olmadığını, hatta doktorların eğitimine yardımcı olabilecek bir araç olmadığını söylüyor. Yani yine karar vermeyi değil, öğretmeyi destekleyen bir araç En azından bu araç eşit derecede akıllı araçlarla birleştirilene kadar, ancak daha sonra içeriklere giden, içeriklerin, bilimsel yayınların yönergelerinin, protokoller. Karar vermek için gereken her şey. Ve sanırım yakında verecekler “.

“İki sistemin birleşimi – o noktada gerçekten bir silah olabilir, üzerinde çalışmak ve üzerinde deney yapmak ilginç bir şey olabilir” sonucuna varıyor.