Transparency and Interpretability for Learned Representations of Artificial Neural Networks
Sztuczna inteligencja (AI) to pojęcie, którego znaczenie i postrzeganie znacznie zmieniło się w ciągu ostatnich dziesięcioleci. Zaczynając od pojedynczych i czysto teoretycznych wysiłków badawczych w latach pięćdziesiątych XX wieku, sztuczna inteligencja stała się w pełni rozwiniętą dziedziną badawczą współczesnych czasów i prawdopodobnie może stać się jednym z najważniejszych osiągnięć technologicznych ludzkości.
Pomimo tych szybkich postępów technologicznych, niektóre kluczowe pytania dotyczące kwestii przejrzystości, możliwości interpretacji i wyjaśnienia procesu podejmowania decyzji przez sztuczną inteligencję pozostają bez odpowiedzi. W związku z tym, młode pole badawcze ukute pod ogólnym terminem Explainable AI (XAI) wyłoniło się z coraz bardziej rygorystycznych wymagań dotyczących sztucznej inteligencji, która ma być wykorzystywana w dziedzinach krytycznych dla bezpieczeństwa lub wrażliwych etycznie.
Ważną gałęzią badawczą XAI jest opracowanie metod, które pomagają w głębszym zrozumieniu wyuczonej wiedzy sztucznych systemów neuronowych. W niniejszej książce przedstawiono serię badań naukowych, które rzucają światło na sposób przyjęcia empirycznego podejścia inspirowanego neuronauką w celu zbadania wyuczonej reprezentacji sieci neuronowej w tym samym duchu, co neuronaukowe badania mózgu.
© Book1 Group - wszelkie prawa zastrzeżone.
Zawartość tej strony nie może być kopiowana ani wykorzystywana w całości lub w części bez pisemnej zgody właściciela.
Ostatnia aktualizacja: 2024.11.13 21:45 (GMT)