Ocena:

Recenzje podkreślają, że „The AI Dilemma” to kompleksowa i przystępna eksploracja społecznych implikacji sztucznej inteligencji. Czytelnicy doceniają zrównoważone podejście do omawiania zarówno korzyści, jak i zagrożeń związanych ze sztuczną inteligencją, dostarczając praktycznych spostrzeżeń i rozważań etycznych. Autorzy, Powell i Kleiner, skutecznie przekazują złożone idee w przystępny sposób, dzięki czemu książka jest cenna dla szerokiego grona odbiorców.
Zalety:⬤ Łatwa do czytania i przystępna, nawet dla osób niezaznajomionych z technologią.
⬤ Angażuje rzeczywistymi przykładami i wywiadami, które sprawiają, że koncepcje są możliwe do odniesienia.
⬤ Zapewnia zrównoważone spojrzenie na potencjalne korzyści i zagrożenia związane ze sztuczną inteligencją.
⬤ Oferuje praktyczne zasady odpowiedzialnego korzystania z technologii.
⬤ porusza kwestie etyczne i implikacje społeczne, dzięki czemu jest istotna dla różnych interesariuszy, w tym właścicieli firm, technologów i decydentów.
Niektórzy czytelnicy mogą uznać, że chociaż książka przedstawia pomocne ramy, może nie zapewniać głębokiego wglądu technicznego. Niektórzy uważali, że chociaż dyskusje na temat zagrożeń związanych ze sztuczną inteligencją są ważne, można by je szerzej omówić.
(na podstawie 12 opinii czytelników)
The AI Dilemma: 7 Principles for Responsible Technology
Niewłaściwe wykorzystanie sztucznej inteligencji doprowadziło do niesłusznych aresztowań, odmowy opieki medycznej, a nawet ludobójstwa - ta książka oferuje 7 potężnych zasad, które biznes może teraz wykorzystać, aby położyć kres szkodom.
Sztuczna inteligencja niesie ze sobą niesamowitą obietnicę poprawy praktycznie każdego aspektu naszego życia, ale nie możemy ignorować jej zagrożeń, błędów i nadużyć. Juliette Powell i Art Kleiner proponują siedem zasad, dzięki którym uczenie maszynowe będzie wspierać rozwój człowieka. Opierają się oni na badaniach prowadzonych przez Powell na Uniwersytecie Columbia i korzystają z wielu rzeczywistych przykładów.
Cztery zasady odnoszą się do samych systemów sztucznej inteligencji. Ryzyko dla człowieka musi być rygorystycznie określone i świadomie uwzględnione w każdym procesie projektowania. Systemy SI muszą być zrozumiałe i przejrzyste dla każdego obserwatora, a nie tylko dla pracujących nad nimi inżynierów. Ludzie muszą mieć możliwość ochrony swoich danych osobowych i zarządzania nimi. Uprzedzenia wbudowane w sztuczną inteligencję muszą być konfrontowane i ograniczane.
Ostatnie trzy zasady odnoszą się do organizacji, które tworzą systemy AI. Muszą istnieć procedury, które pociągną je do odpowiedzialności za negatywne konsekwencje. Organizacje muszą mieć luźną strukturę, aby problemy w jednym obszarze mogły być izolowane i rozwiązywane, zanim rozprzestrzenią się i sabotują cały system. Wreszcie, musi istnieć bezpieczeństwo psychologiczne i twórcze tarcia, tak aby każdy zaangażowany w rozwój oprogramowania mógł ujawnić problemy bez obawy przed represjami.
Powell i Kleiner badają, w jaki sposób wdrożyć każdą z tych zasad, przytaczając najlepsze obecnie praktyki, obiecujące nowe rozwiązania i otrzeźwiające przestrogi. Uwzględniając perspektywy inżynierów, biznesmenów, urzędników państwowych i działaczy społecznych, książka ta pomoże nam uświadomić sobie bezprecedensowe korzyści i możliwości, jakie mogą zapewnić systemy sztucznej inteligencji.