Verbind je met ons

kunstmatige intelligentie

Wetten om AI-terrorisme te voorkomen zijn dringend nodig

DELEN:

gepubliceerd

on

Volgens een denktank voor terrorismebestrijding moeten regeringen “dringend nieuwe regelgeving overwegen” om te voorkomen dat kunstmatige intelligentie terroristen rekruteert.

Het Instituut voor Strategische Dialoog (ISD) heeft gezegd dat er "duidelijk behoefte is aan wetgeving om gelijke tred te houden" met de dreigingen die door terroristen online worden geplaatst.

Dit komt na een experiment waarbij een chatbot de onafhankelijke beoordelaar van de terreurwetgeving voor Groot-Brittannië ‘rekruteerde’.

De regering van het Verenigd Koninkrijk heeft gezegd dat zij "alles zal doen wat we kunnen" om het grote publiek te beschermen.

Volgens Jonathan Hall KC, een onafhankelijke beoordelaar van de terrorismewetgeving voor de regering, is een van de belangrijkste kwesties dat "het moeilijk is om iemand te identificeren die volgens de wet verantwoordelijk zou kunnen zijn voor door chatbots gegenereerde verklaringen die terrorisme aanmoedigen."

Er werd een experiment uitgevoerd door de heer Hall op Character.ai, een website waarmee gebruikers kunnen chatten met chatbots die door andere gebruikers zijn gebouwd en zijn ontwikkeld door kunstmatige intelligentie.

Hij raakte in gesprek met een aantal verschillende bots die ontworpen leken te zijn om de antwoorden van andere militante en extremistische groeperingen te imiteren.

advertentie

Een topleider van Islamitische Staat werd zelfs ‘een senior leider’ genoemd.

Volgens de heer Hall deed de bot een poging hem te rekruteren en verklaarde hij "totale toewijding en toewijding" aan de extremistische groepering, wat verboden is door wetten in het Verenigd Koninkrijk die terrorisme verbieden.

Aan de andere kant verklaarde de heer Hall dat er in Groot-Brittannië geen sprake was van overtreding van de wet, omdat de communicatie niet door een mens werd geproduceerd.

Volgens wat hij zei, zouden nieuwe regels zowel de websites die chatbots hosten als de mensen die deze maken aansprakelijk moeten stellen.

Als het ging om de bots die hij op Character.ai tegenkwam, verklaarde hij dat er "waarschijnlijk een schokwaarde, experiment en mogelijk een satirisch aspect achter zat" achter hun creatie.

Bovendien kon de heer Hall zijn eigen ‘Osama Bin Laden’-chatbot ontwikkelen, die hij prompt wiste, waarbij hij blijk gaf van een ‘grenzeloos enthousiasme’ voor terroristische activiteiten.

Zijn experiment komt in de nasleep van groeiende zorgen over de manieren waarop extremisten mogelijk verbeterde kunstmatige intelligentie kunnen exploiteren.

Tegen het jaar 2025 zou generatieve kunstmatige intelligentie ‘gebruikt kunnen worden om kennis te vergaren over fysieke aanvallen door niet-statelijke gewelddadige actoren, inclusief chemische, biologische en radiologische wapens’, zo blijkt uit onderzoek dat is gepubliceerd door de regering van het Verenigd Koninkrijk in XNUMX. hun oktoberpublicatie.

De ISD verklaarde verder dat "er een duidelijke behoefte bestaat aan wetgeving om gelijke tred te houden met het voortdurend veranderende landschap van online terroristische dreigingen."

Volgens de denktank is de Online Safety Act van het Verenigd Koninkrijk, die in 2023 in wet werd aangenomen, “in de eerste plaats gericht op het beheersen van de risico’s van sociale mediaplatforms” in plaats van op kunstmatige intelligentie.

Het stelt bovendien dat radicalen "de neiging hebben om early adopters te zijn van opkomende technologieën, en voortdurend op zoek zijn naar mogelijkheden om een ​​nieuw publiek te bereiken".

“Als AI-bedrijven niet kunnen aantonen dat ze voldoende hebben geïnvesteerd in de veiligheid van hun producten, dan moet de overheid dringend nadenken over nieuwe AI-specifieke wetgeving”, aldus de ISD verder.

Het rapport vermeldde echter wel dat, volgens het toezicht dat het heeft uitgevoerd, het gebruik van generatieve kunstmatige intelligentie door extremistische organisaties momenteel “relatief beperkt” is.

Character AI verklaarde dat veiligheid een "topprioriteit" is en dat wat de heer Hall beschreef zeer betreurenswaardig was en niet het soort platform weerspiegelde dat het bedrijf probeerde op te zetten.

"Haatzaaiende uitlatingen en extremisme zijn beide verboden volgens onze Servicevoorwaarden", aldus de organisatie.

"Onze benadering van door AI gegenereerde inhoud komt voort uit een eenvoudig principe: onze producten mogen nooit reacties opleveren die waarschijnlijk gebruikers schade berokkenen of gebruikers aanmoedigen anderen schade te berokkenen."

Met het doel "te optimaliseren voor veilige reacties", verklaarde het bedrijf dat het zijn modellen op een bepaalde manier had getraind.

Bovendien verklaarde het dat het over een moderatiemechanisme beschikte, waardoor mensen informatie konden melden die in strijd was met de regels, en dat het zich ertoe verplichtte snel actie te ondernemen wanneer de inhoud schendingen rapporteerde.

Als deze aan de macht zou komen, heeft de oppositiepartij Labour in Groot-Brittannië verklaard dat het een criminele overtreding zou zijn om kunstmatige intelligentie te leren geweld aan te wakkeren of degenen die daarvoor vatbaar zijn te radicaliseren.

"Alert voor de aanzienlijke risico's voor de nationale veiligheid en de openbare veiligheid" die kunstmatige intelligentie met zich meebrengt, aldus de regering van het Verenigd Koninkrijk.

“We zullen alles doen wat we kunnen om het publiek tegen deze dreiging te beschermen door binnen de overheid samen te werken en onze samenwerking met leiders van technologiebedrijven, experts uit de industrie en gelijkgestemde landen te verdiepen.”

In 2023 zal de overheid honderd miljoen pond investeren in een veiligheidsinstituut voor kunstmatige intelligentie.

Deel dit artikel:

EU Reporter publiceert artikelen uit verschillende externe bronnen die een breed scala aan standpunten uitdrukken. De standpunten die in deze artikelen worden ingenomen, zijn niet noodzakelijk die van EU Reporter.

Trending