Nobelprijsbijeenkomsten: discussie over kunstmatige intelligentie en vertrouwen in de wetenschap

Nobelprijsbijeenkomsten: discussie over kunstmatige intelligentie en vertrouwen in de wetenschap

In de eerste week van juli gebeurden ze Drieënzeventigste Lindau-bijeenkomsten van Nobelprijswinnaars Met een artistieke focus op natuurkunde. Een bijzonder interessante sessie was gewijd aan de vraag hoe je dit kunt doen in het tijdperk van kunstmatige intelligentie (AI). Vertrouw op de wetenschap kan worden bewaard.

Hoe betrouwbaar zijn de conclusies van AI, die doorgaans gebaseerd zijn op grote databases? Onder meer de promotor stelde dat dit vertrouwen voor onderzoekers net zo belangrijk is als voor het algemene publiek.

Op basis van het feit dat AI steeds vaker in het onderzoek wordt ingezet in de vorm van snelle en krachtige tools, bijvoorbeeld bij de analyse van grote en complexe datasets, stelde de commissie de vraag in hoeverre eerdere wetenschappelijke principes van toepassing zijn op de toepassing. Transparantie, repliceerbaarheid en falsifieerbaarheid zijn belangrijke kwesties die verfijnd moeten worden.

Kunstmatige intelligentie als ondersteunende of onafhankelijke onderzoekseenheid

Professor Brian Schmidt, Nobelprijswinnaar en supernovaspecialist van de Australian National University, benadrukte het probleem dat veel universiteitsleden die wetenschappelijk werken niet langer AI als hulpmiddel gebruiken, maar vooral zogenaamde grote taalmodellen (LLM) toestaan , zelfstandig werken om de resultaten ervan te gebruiken om uw eigen resultaten te leveren. Ze zullen dus niet veel uit zichzelf leren.

Welk niveau van menselijke controle hebben we nodig om iets ‘wetenschap’ te noemen? Professor David J. legde uit: Gross, een Nobelprijswinnaar en expert op het gebied van elementaire deeltjes van de Universiteit van Californië, Santa Barbara, zegt dat met name masterstudenten zoals ChatGPT zo zijn opgeleid dat ze altijd een realistisch plausibel resultaat van de analyse opleveren. Met grote hoeveelheden data. Sommige van deze resultaten zijn echter eenvoudigweg verzonnen en onwaar, wat hallucinatie wordt genoemd. Kunstmatige intelligentie heeft geen interesse in goed of fout.

READ  Oplosbare gips is bestand tegen wortelverlies

Hebben we nieuwe instrumenten nodig om te voorkomen dat valse AI-resultaten worden gebruikt als basis voor besluitvorming in de overheid, het bedrijfsleven en de samenleving? Als jonge wetenschapper besprak Jared Ricardo Christie het vertrouwensgevoelige vakgebied van de medische fysica in de beroemde groep. Hij omschreef kunstmatige intelligentie als een ‘black box’, omdat deze nooit volledig begrepen kan worden. Noch hoe het werkt, noch hoe geldig of onbevooroordeeld de resultaten zijn. Het is vooral belangrijk om de resultaten van de AI te verifiëren en risico’s te verminderen door de AI te voorzien van bijzonder valide gegevens uit praktijkonderzoek voor analyse.

Het is tegenwoordig moeilijk om vertrouwen te winnen

Voor Nobelprijswinnaar Gross bestaat er geen gemakkelijke oplossing om het publieke vertrouwen in de wetenschap te vergroten, ondanks het gebruik van kunstmatige intelligentie. Volgens hem zijn er nu te veel bronnen van twijfelachtige alternatieve feiten die een negatief effect hebben op het vertrouwen van mensen. Het gewone volk kan geen onderscheid maken tussen echte feiten en valse feiten. Bovendien zullen velen er niet omheen kunnen dat onderzoekers altijd een zekere mate van onzekerheid over hun bevindingen met zich meedragen.

Hebben de natuurwetenschappen bijvoorbeeld een bredere interactie nodig met andere disciplines zoals ethiek of cultuurwetenschappen? Professor Donna Strickland van de Universiteit van Waterloo, de derde vrouw ooit die de Nobelprijs voor de natuurkunde won voor haar werk op het gebied van de laserfysica, was er in de discussie van overtuigd dat het van fundamenteel belang is om interdisciplinaire disciplines te hanteren.

Bovendien is het volgens Strickland in het tijdperk van kunstmatige intelligentie en afnemend vertrouwen in de wetenschap essentieel om contact te leggen met een niet-wetenschappelijk publiek. Dit kan bijvoorbeeld door samenwerking met theaters of artistieke evenementen waar onderzoekers hun werk moeten presenteren. Tijdens de COVID-19-pandemie zijn veel mensen gestorven omdat ze wetenschappelijke bevindingen verwierpen en onderzoekers niet vertrouwden. Dit wantrouwen moet effectief worden aangepakt.

READ  Wetenschap en politiek: nieuwe onderzoeksbenaderingen in Berlijn

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *