eXplainable AI

A mesterséges intelligencia (MI) fejlődésének legfontosabb elemei közé tartoznak a mély tanulási modellek, melyek az ipar és a technológia világát napról-napra forradalmasítják. Napjainkban, a mély-tanulással szemben támasztott egyik legfontosabb elvárás, hogy egyre jobban értelmezhetőek és átlátható struktúrájúak legyenek, miközben biztosítják a modell optimális teljesítményét. A transzparencia hiánya komoly kockázatokkal jár, hiszen ha a modell előrejelzési folyamatát részleteiben nem ismerjük, értelmezéseink hibásak lehetnek, az ok-okozati kapcsolatokat rosszul állapíthatjuk meg, amiből téves következtetéseket vonhatunk le.


Biomatics_ApplArtInt_Fig


A kutatócsoport tagjai egy olyan új módszer kidolgozásán dolgoznak, mely a neurális hálózatok adta struktúrákat, illetve a folytonos logika és sok-kritériumú döntési módszerek által adta lehetőségeket igyekeznek ötvözni. A kutatások nagy része a neuro-szimbolikus hibrid mesterséges intelligencia területéhez tartoznak – egy olyan területhez, amely összekapcsolja a hagyományos szabályalapú megközelítést a modern, mély tanulási módszerekkel. A neurális hálózatok és neuro-szimbolikus rendszerek ötvözete olyan hibrid rendszerek megalkotását teszik lehetővé, amelyek szignifikánsan növelik az előrejelzések pontosságát, növelik a mintavételi hatékonyságot és a rendszer által adott előrejelzések értelmezhetőségét.

Kapcsolattartó:
Dr. Csiszár Gábor
csiszar.gabor@nik.uni-obuda.hu