BitcoinWorld
ArXiv Verbant Auteurs Één Jaar als Ze AI-Gegenereerde Papers Indienen Zonder Menselijke Controle
ArXiv, de veelgebruikte open-access repository voor preprint-onderzoek, heeft een nieuw beleid aangekondigd dat kan resulteren in een verbod van één jaar voor auteurs die papers indienen met duidelijk bewijs van ongecontroleerde AI-gegenereerde inhoud. De maatregel, donderdag toegelicht door Thomas Dietterich, voorzitter van de computerwetenschap-sectie van ArXiv, richt zich op het groeiende probleem van AI-geproduceerd onderzoek van lage kwaliteit dat het vertrouwen in wetenschappelijke publicaties ondermijnt.
Volgens de bijgewerkte richtlijnen zal, als moderatoren 'onweerlegbaar bewijs' vinden dat auteurs de output van grote taalmodellen (LLM's) niet hebben geverifieerd vóór indiening, het paper worden afgewezen en de auteurs een schorsing van één jaar krijgen voor het plaatsen op ArXiv. Na het verbod moeten auteurs daaropvolgende inzendingen laten accepteren door een gerenommeerd peer-reviewed tijdschrift voordat ze naar het platform kunnen terugkeren.
Dietterich specificeerde dat dergelijk bewijs verzonnen referenties, onzinnige citaten of directe kopieer-plak-fouten van een LLM omvat. Het beleid verbiedt het gebruik van AI-tools niet volledig; het houdt auteurs echter 'volledig verantwoordelijk' voor alle inhoud, ongeacht hoe deze is gegenereerd. Dit omvat plagiaat, bevooroordeelde uitspraken en feitelijke onnauwkeurigheden die door AI zijn geïntroduceerd.
ArXiv is al lang een hoeksteen van snelle verspreiding van onderzoek, vooral in computerwetenschappen, wiskunde en natuurkunde. De opkomst van generatieve AI heeft echter geleid tot een toename van inzendingen die lijken te zijn geproduceerd met minimaal menselijk toezicht. Recente peer-reviewed studies hebben een toename van verzonnen citaten in biomedische literatuur gedocumenteerd, waarschijnlijk gekoppeld aan het gebruik van LLM's.
Door deze one-strike-regel te handhaven, wil ArXiv de geloofwaardigheid van zijn repository bewaren. Het beleid omvat ook een bezwaarproces, waardoor auteurs beslissingen kunnen aanvechten. Moderatoren moeten eerst problemen markeren en sectie-voorzitters moeten bewijs bevestigen voordat sancties worden toegepast.
Dit beleid weerspiegelt een groeiende consensus in de academische wereld dat AI-tools menselijk toezicht bij onderzoek moeten ondersteunen, niet vervangen. De overgang van ArXiv naar een onafhankelijke non-profitorganisatie, na meer dan twee decennia gehost te zijn door Cornell University, geeft het meer flexibiliteit om dergelijke maatregelen te handhaven. De repository heeft al stappen ondernomen om AI-gegenereerde inzendingen te beperken, waaronder het vereisen van aanbevelingen voor eerste inzenders.
Voor onderzoekers is de boodschap duidelijk: het gebruik van AI om taal te ontwerpen of te polijsten is aanvaardbaar, maar het indienen van werk zonder rigoureuze feitencontrole en verificatie van citaten niet. Dit sluit aan bij bredere redactionele normen in wetenschappelijke publicaties, waar verantwoording centraal blijft staan.
Het nieuwe verbodsbeleid van ArXiv vertegenwoordigt een belangrijke stap in het handhaven van de integriteit van preprint-onderzoek in een tijdperk van wijdverbreid AI-gebruik. Door auteurs te bestraffen die AI-gegenereerde inhoud niet controleren, versterkt de repository het principe dat menselijke onderzoekers de uiteindelijke verantwoordelijkheid dragen voor hun werk. Naarmate AI-tools verder geïntegreerd raken in het onderzoeksproces, zullen dergelijke vangrails waarschijnlijk standaard worden in academische publicaties.
V1: Verbiedt het nieuwe beleid van ArXiv het gebruik van AI bij het schrijven van papers?
Nee, het verbiedt het gebruik van AI niet. Het verbiedt het indienen van papers met duidelijk bewijs dat auteurs AI-gegenereerde inhoud niet hebben gecontroleerd op fouten, zoals verzonnen referenties of onzinnige tekst.
V2: Wat telt als 'onweerlegbaar bewijs' van misbruik van AI?
Voorbeelden zijn gehallucineerde citaten, verwijzingen naar niet-bestaande bronnen en directe kopieer-plak-fouten van een LLM die aangeven dat er geen menselijke controle heeft plaatsgevonden.
V3: Kunnen auteurs bezwaar maken tegen een verbod?
Ja, het beleid omvat een bezwaarproces. Moderatoren moeten het probleem markeren, sectie-voorzitters bevestigen het bewijs en auteurs kunnen de beslissing aanvechten.
Dit bericht ArXiv Verbant Auteurs Één Jaar als Ze AI-Gegenereerde Papers Indienen Zonder Menselijke Controle verscheen eerst op BitcoinWorld.


