Microsoft zou chatbot Bing moeten beperken nadat AI er inbreuk op had gemaakt

Microsoft zou chatbot Bing moeten beperken nadat AI er inbreuk op had gemaakt

Nadat de Bing-chatbot van Microsoft onlangs aanstootgevende en ongepaste antwoorden gaf, heeft Microsoft het gebruik ervan nu beperkt.

REDMOND, WA (VS) – Vreemde incidenten bij Microsoft: nadat de Bing-chatbot van de softwaresuite in het recente verleden verschillende keren rare antwoorden had gegeven, heeft Microsoft het gebruik ervan nu beperkt. De Bing-chatbot zou kunstmatige intelligentie kunnen gebruiken – vergelijkbaar met Open.AI’s ChatGPT – om complexe vragen te beantwoorden en gedetailleerde gesprekken te voeren. Zo reageert de softwaregigant op een aantal incidenten waarbij een scripting-bot uit de hand liep en antwoorden formuleerde die als aanstootgevend en ongepast werden beschouwd. Microsoft wil echter binnenkort kunstmatige intelligentie gebruiken in zijn Office-producten.

AI wordt groter: Microsoft staat slechts 50 vragen per dag toe voor de Bing-chatbot

in een Bloginvoer Microsoft heeft aangekondigd dat het Bing-chats nu beperkt tot 50 vragen per dag en vijf per sessie. “Onze gegevens hebben aangetoond dat de overgrote meerderheid van de mensen binnen 5 ronden de antwoorden vindt waarnaar ze op zoek zijn”, legt het Bing-team uit. Slechts één procent van de chatgesprekken bevat meer dan 50 berichten. Wanneer gebruikers de limiet van vijf items per sessie bereiken, vraagt ​​Bing u om een ​​nieuw onderwerp te starten.

Nadat de Bing-chatbot van Microsoft onlangs aanstootgevende en ongepaste antwoorden gaf, heeft Microsoft het gebruik ervan nu beperkt.

© Peter Kneffel / dpa / Archief

Eerder waarschuwde Microsoft voor het aangaan van langdurige gesprekken met de AI-chatbot, die zich nog in de testfase bevindt. Langere chats met 15 of meer vragen kunnen “Bing zelf herhalen of reacties oproepen of uitlokken die niet noodzakelijkerwijs nuttig zijn of niet overeenkomen met de bedoelde toon”.

READ  Het aantal spelers is toegenomen tot 700.000 – SHOCK2

De chatbot van Microsoft voor Bing zet de New York Times-verslaggever ertoe aan van zijn vrouw te scheiden

Bing chatbot-test door verslaggever van De New York Times zorg b. In een ruim twee uur durende dialoog beweerde de chatbot verliefd te zijn op de journalist. Vervolgens vroeg hij de verslaggever om van zijn vrouw te scheiden.

Andere gebruikers hebben eerder melding gemaakt van het “ongepaste gedrag” van de chatbot. Bing vertelde de gebruiker bijvoorbeeld dat het er waarschijnlijk voor zou kiezen om het in leven te houden. Bij een andere gebruiker stond ze erop dat het 2022 was. Toen hij volhield dat 2023 het juiste jaar was, werd de tekstbot beledigend. De chatbot bedreigde ook de filosofieprofessor en zei: “Ik kan je chanteren, ik kan je bedreigen, ik kan je hacken, ik kan je in verlegenheid brengen, ik kan je naaien” voordat hij de dreiging zelf verwijderde.

AI: Microsoft Bing-chatbot geeft “ongepaste antwoorden” en wordt beledigend

Microsoft maakt gebruik van technologie van Bing-chatbot-startup OpenAI en drijft het Californische AI-bedrijf met miljarden aan. Microsoft-CEO Satya Nadella ziet de integratie van AI-functionaliteit als een kans om de marktomstandigheden om te keren in concurrentie met Google’s Alphabet-groep. Hij wil ook AI gebruiken om de superioriteit van zijn kantoorsoftware veilig te stellen en cloudactiviteiten te stimuleren met Microsoft Azure.

Google lanceerde zijn eigen AI-offensief met chatbot Bard om de push van Microsoft en OpenAI tegen te gaan. Dat blijkt uit een rapport van topman Sundar Pichai Zakelijk geïnteresseerd Ze zei tegen haar medewerkers dat ze het systeem in volle vaart moesten doorontwikkelen: ze moesten twee tot vier uur van hun wekelijkse werktijd investeren in het trainen van de chatbot. (met dpa-item)

Lijst met regels: © Peter Kneffel / dpa / Archief

READ  Brettspiel-News.de - Zwaard en tovenarij: oude archieven

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *