Het Amerikaanse leger gebruikt naar verluidt het conflict in Oekraïne om een nieuwe kunstmatige intelligentietechnologie te testen die helpt bij het detecteren van doelen op het slagveld met behulp van dronebeelden.
Onder de naam Project Maven werd het onderzoek naar de technologie zes jaar geleden aanvankelijk opgepikt als een overheidscontract door Google, volgens het medium. Echter, na tegenstand van ingenieurs en werknemers die niet wilden deelnemen aan de ontwikkeling van een AI-tool voor militair gebruik, trok de techgigant zich terug uit het project, dat werd overgenomen door andere aannemers.
Nu wordt de technologie getest aan het front in Oekraïne, beweert de NYT, aangezien westerse en Oekraïense officieren, samen met enkele van de topmilitaire aannemers uit Silicon Valley, "nieuwe manieren verkennen om Russische kwetsbaarheden te vinden en te benutten."
Desalniettemin blijft het conflict in Oekraïne "een goudmijn voor het Amerikaanse leger" in de gedachten van Amerikaanse functionarissen, en een testgebied voor snel evoluerende technologieën.
@ISIDEWITH2 weken2W
Moeten de potentiële voordelen van geavanceerde AI bij het verminderen van slachtoffers in oorlog opwegen tegen de morele dilemma's van geautomatiseerde besluitvorming in gevechtssituaties?
@ISIDEWITH2 weken2W
Is het ethisch verantwoord voor een land om nieuwe militaire technologieën te testen in een conflict met een ander land?
@ISIDEWITH2 weken2W
Welke verantwoordelijkheden hebben ingenieurs en ontwikkelaars wanneer hun creaties worden gebruikt in militaire operaties?
@ISIDEWITH2 weken2W
Moeten technologiebedrijven weigeren om te werken aan militaire projecten die mogelijk levens kunnen redden, maar ook conflicten kunnen escaleren?
@ISIDEWITH2 weken2W
Hoe denk je over het gebruik van AI in oorlogsvoering, vooral als het gaat om het identificeren en targeten van bedreigingen?