Domaren Juan Manuel Padilla skapade stora rubriker när han använde AI-chattboten ChatGPT i en dom. Domen rörde ett falla av medicinska rättigheter för barn, där domen fastslog att ett autistiskt barn inte skulle behöva betala för läkarbesök, terapi och transporter, på grund av föräldrarnas begränsade inkomster.
Padilla berättade för Blu Radio att ChatGPT och andra liknande program kan vara användbara när man gör utkast, men inte att helt ersätta domarna, rapporterar AFP. I hans dom i fallet med det autistiska barnet skrev han att han rådfrågat ChatGPT, men inte till vilken grad han förlitat sig på boten.
Genom att ställa frågor till boten slutar vi inte vara domare, menar han. GhatGPT använder artificiell intelligens och samlar data från internet för att generera svar på frågor som människor ställer.
I det här fallet hade Padilla bland annat frågat boten ”Är autistiska barn undantagna från att betala avgift för behandling?”
Den svarade då ”Ja, det är korrekt. Enligt lagarna i Colombia är barn diagnosticerade med autism undantagna från att betala för sin behandling.”
Enligt Padilla utför boten en tjänst som tidigare tillhandahölls av sekreterare, och på ett organiserat, enkelt och strukturellt sätt. Vilket kunde minska tidsåtgången inom det juridiska systemet.
Men Padilla har fått mothugg. Professor Juan David Gutierrez vid Rosiarouniversitetet säger att han ställde samma frågor i ChatGPT men fick andra svar än Padilla. Gutierrez är expert på artificiell intelligens och lagar och myndighetsutövning.
Det är verkligen inte ansvarsfullt eller etiskt att använda ChatGPT med det syfte som domaren i det här fallet hade”, skrev han på Twitter.
Ok this is yet another use for ChatGPT that could endanger people. A judge in Colombia used #ChatGPT to write part of its ruling in a case in which the fundamental right to health of a minor was at stake https://t.co/HWwso3uZNG
— Ruth Starkman @RuthStarkman@dair-community.social (@ruthstarkman) February 3, 2023
Han uppmanade också till att domare snarast måste träna sig i ”digital läsbarhetsförmåga”.
ChatGPT är utvecklat av OpenAI, baserade i Kalifornien i USA. Man har tagit världen med storm sedan lanseringen i november, med sin förmåga att skriva texter, artiklar, poesi och datakod på bara sekunder.
Men kritiker menar att det kan utnyttjas för att fuska på skolor och universitet. OpenAI har själva varnat för att verktyget kan göra misstag.
Padilla ser dock ljust på utvecklingen och tror att många av hans kollegor kommer börja använda artificiell intelligens som verktyg. Och bygga sina domar på det, på ett etiskt sätt.
Enligt Kristian Hammond, professor i datorvetenskap på Northwestern University, är ChatGPT utvecklad för att imitera hur människor talar och skriver. Boten är i sig inte kreativ, utan gör bara vad den blivit tillsagd att göra.
Han menar att uppgiften boten blir tillsagd att utföra måste ligga inom ramarna för dess begränsningar. Även om den kan vara bra på att göra ett test, kan den på grund av sin grundläggande mekanism kanske aldrig få förmågan att kunna resonera på ett genuint sätt, vara kreativ eller tänka bortom nuet.
Inom det juridiska kan det exempelvis fungera bättre när boten svarar på lagar som är ”konservativa” och beständiga än udda fall, och lagar som är under snabb utveckling, som cybersäkerhet. Än så länge kommer ChatGPT främst vara en hjälpreda, och inte en ersättare, till jurister och domare.