apa.at
blog / Dienstag 08.05.18

Mensch – Maschi­ne – Missverständnis?

Tech­gi­gan­ten wie Face­book, Goog­le, Spo­ti­fy und Net­flix tun es. Kre­dit­kar­ten­un­ter­neh­men, aber auch Ärz­te und Medi­en tun es. Arti­fi­cial Intel­li­gence (AI) ist längst überall. 

AI beein­flusst unse­ren Medi­en­kon­sum, kennt unse­re Prä­fe­ren­zen und emp­fiehlt uns News­ar­ti­kel, Bücher oder Musik. Sie infor­miert uns über Wich­ti­ges und Bana­les. Sie lernt selbst­stän­dig und teilt uns digi­tal mit, was wir in der ana­lo­gen Welt (ver­meint­lich) brau­chen. Ganz gleich, ob Social-Media-Time­li­ne oder per­so­na­li­sier­te Play­list, Fraud Detec­tion im Zah­lungs­ver­kehr oder medi­zi­ni­sche Behand­lungs­emp­feh­lun­gen – dahin­ter ste­cken Algo­rith­men. Und das sind zunächst ein­mal nur Hand­lungs­vor­schrif­ten, die für Com­pu­ter in eine Pro­gram­mier­spra­che über­setzt wer­den. So kön­nen Maschi­nen Auf­ga­ben belie­big oft durch stan­dar­di­sier­te Auto­ma­ti­sie­rung erledigen.

Wäh­rend Ent­wick­le­rin­nen und Ent­wick­ler frü­her alles, was ein Com­pu­ter leis­ten soll­te, manu­ell pro­gram­mie­ren muss­ten, kön­nen Algo­rith­men heu­te selbst dazu­ler­nen, indem sie Schlüs­se aus Trai­nings­da­ten, Mess­ergeb­nis­sen und Feed­back zie­hen. AI beginnt also nicht erst dort, wo der Mensch nicht mehr ein­greift, son­dern immer dann, wenn – teils von Men­schen unter­stützt – selbst­ler­nen­de Sys­te­me betei­ligt sind. Gera­de für Medi­en­un­ter­neh­men erge­ben sich dar­aus neue Sze­na­ri­en: sei es, dass Inhal­te per ler­nen­dem Algo­rith­mus per­so­na­li­siert und maß­ge­schnei­dert aus­ge­lie­fert wer­den, oder, dass Chat­bots und Sprach­as­sis­ten­ten die bis­her eher one-way-media­le Infor­ma­ti­ons­ver­mitt­lung in einen Dia­log ver­wan­deln. Auch Pro­zes­se in Pro­duk­ti­on und Ver­trieb wer­den zuneh­mend von AI beein­flusst, indem ent­spre­chen­de Sys­te­me Tätig­kei­ten auto­ma­ti­siert übernehmen.

Rich­ti­ger Con­tent zur rich­ti­gen Zeit

Grund­la­ge für den Ein­satz von AI sind in jedem Fall Daten, und zwar ein gro­ßer Berg von nut­zer­ge­ne­rier­ten Daten. Für Medi­en­un­ter­neh­men ist AI eine Chan­ce, denn sie ken­nen den Nut­zer und kön­nen aus­sa­ge­kräf­ti­ge Daten sam­meln. Die­se Daten in Kom­bi­na­ti­on mit dem soge­nann­ten „Super­vi­sed Learning“-Verfahren trai­nie­ren ein Sys­tem, das in wei­te­rer Fol­ge per­so­na­li­sier­te Nach­rich­ten aus­lie­fern kann. Der Con­tent kann dadurch nicht nur indi­vi­du­ell im For­mat an die unter­schied­li­chen Platt­for­men ange­passt wer­den, son­dern auch an die jewei­li­ge Nut­zungs­si­tua­ti­on. Sen­so­ren spei­sen dabei den Algo­rith­mus, der errech­net, in wel­cher Situa­ti­on sich der Besit­zer gera­de befin­det. In einem öffent­li­chen Ver­kehrs­mit­tel möch­te der Nut­zer viel­leicht „snack­si­zed“ News kon­su­mie­ren, auf dem hei­mi­schen Sofa einen Long-Read und im Auto einen Pod­cast. Per­so­na­li­sie­rung könn­te sogar so weit gehen, Arti­kel in ver­schie­de­nen Sprach­ni­veaus zu publi­zie­ren. AI eig­net sich beson­ders für die Mus­ter­er­ken­nung, Sen­ti­ment­ana­ly­se bzw. Bild‑, Sprach- und Ton­erken­nung sowie das Clustering.

Ein Anwen­dungs­be­reich, in dem AI bereits gute Diens­te geleis­tet hat, ist Daten­jour­na­lis­mus. Nicht zuletzt die Ver­öf­fent­li­chun­gen der Pana­ma Papers zeig­ten, wie aus gro­ßen Men­gen unstruk­tu­rier­ter Daten Geschich­ten und Skan­da­le gefil­tert wer­den kön­nen. Die Pana­ma Papers bestan­den aus 11,5 Mil­lio­nen Doku­men­ten, undenk­bar, dass die 2,6 Tera­byte Daten von Hand durch­sucht wor­den wären. Die Jour­na­lis­tin­nen und Jour­na­lis­ten nutz­ten des­halb ver­schie­de­ne Anwen­dun­gen des maschi­nel­len Ler­nens, um die Doku­men­te les­bar zusam­men­zu­fü­gen, zu struk­tu­rie­ren und schließ­lich Netz­wer­ke zwi­schen den betei­lig­ten Per­so­nen und Orga­ni­sa­tio­nen zu visualisieren.

Wo geht die Rei­se hin?

Dass AI Arbeits­plät­ze ein­spart, ist mit Sicher­heit eines der größ­ten Miss­ver­ständ­nis­se. Einer der wich­tigs­ten Aspek­te für die Medi­en­bran­che ist die Fra­ge der Ska­lie­rung, die AI erlaubt. Mit der indus­tri­el­len Revo­lu­ti­on wur­de die kör­per­li­che Arbeits­kraft des Men­schen durch Maschi­nen ska­liert – AI ermög­licht die­sen Effekt heu­te bei der Wis­sens­ar­beit. Ein­fa­che­re, repe­ti­ti­ve Auf­ga­ben wie Klas­si­fi­zie­rung oder das Erken­nen von Mus­tern kön­nen von AI schnel­ler und mit höhe­rer Genau­ig­keit und Ver­läss­lich­keit umge­setzt wer­den, als es Men­schen mög­lich ist. Dadurch wird mehr Zeit für intel­lek­tu­ell anspruchs­vol­le­re Auf­ga­ben frei. Denn mehr denn je ist es heu­te nötig, dass Jour­na­lis­tin­nen und Jour­na­lis­ten Infor­ma­tio­nen auf ihren Wahr­heits­ge­halt über­prü­fen. Sich tief­grün­dig mit The­men aus­ein­an­der­zu­set­zen, Recher­che­er­geb­nis­se intel­lek­tu­ell und kri­tisch ein­zu­ord­nen und der Öffent­lich­keit unab­hän­gig „Bericht zu erstat­ten“ wird wei­ter­hin die Auf­ga­be von Men­schen sein. Eine Wei­ter­ent­wick­lung der AI, die AGI (Arti­fi­cial Gene­ral Intel­li­gence), scheint zunächst wie aus einem Sci-Fi-Film ent­sprun­gen. Sie ist sozu­sa­gen der hei­li­ge Gral der AI-Ent­wick­lung und soll es ermög­li­chen, auch intel­lek­tu­el­le Auf­ga­ben zu erle­di­gen. Die­se Ent­wick­lung geht weit über einen für bestimm­te Ein­satz­zwe­cke ent­wi­ckel­ten Algo­rith­mus oder eine spe­zi­ell trai­nier­te AI hin­aus. AGI kann Pro­blem­stel­lun­gen lösen, für die sie nicht spe­zi­fisch trai­niert wur­de, und könn­te – mit allen ein­her­ge­hen­den ethi­schen Fra­ge­stel­lun­gen – Emp­fin­dun­gen ermög­li­chen. Goog­le Deep Mind, das Human Brain Pro­ject oder Ope­nAI for­schen in die­sem Feld, das Ziel scheint der­zeit aber schwer realisierbar.

 

 

von Nadi­ne Rige­le, 08. Mai 2018