- AI is alleen zo effectief en betrouwbaar als de gegevenskwaliteit en de mensen die ermee omgaan
- Landen ontwikkelen nu regelgeving rond het gebruik van AI om het traceerbaar, betrouwbaar en billijk te maken
- Een humanistische benadering, passend onderwijs rond veiligheid en ethische technologie kunnen ons helpen deze vertrouwensdrempel te overschrijden
De speculatie over het al dan niet vertrouwen op AI (Artificial Intelligence) is wijdverbreid. Dergelijke beweringen zijn vaak beperkt tot een dystopische visie. Sommigen zeggen dat AI het einde van het leven inluidt zoals we dat nu kennen. En dat is misschien waar, maar met verandering komt een nieuw begin. Oh, maar er is het meest gevreesde woord van allemaal: verandering.
Angst is misschien wel een van de gemakkelijkste emoties om in verstrikt te raken als je wordt geconfronteerd met een veranderende wereld. En er is weinig twijfel dat er verandering op komst is. Technologie en zijn mogelijkheden gaan vooruit en daarmee ook bedrijven en markten. Mensen passen zich aan de technologie aan op een manier die ze nog nooit eerder hebben meegemaakt.
Feit is: als we vertrouwen stellen in AI, zullen we het ontvangen. Als we veilige AI bouwen die de mensheid en technologie in beeld brengt, zal kunstmatige intelligentie haar vermogen om menselijker te zijn uitbreiden. Hoe kunnen we ooit een machine vertrouwen als we elkaar niet kunnen vertrouwen? Hoe maken we humanistische en ethische technologie, tenzij ook dat prioriteit krijgt in ons leven en bedrijf?
Vergissen is menselijk: waarom we weerstand bieden aan het vertrouwen van AI
Dus, wat staat in de weg? Eerlijk gezegd zijn we dat zelf.
Wat AI en data in gevaar brengt, is meestal menselijke fouten. De gegevens in het bestand zijn niet nauwkeurig of zo uitgebreid als zou moeten. De invoersystemen zijn verouderd of irrelevant. AI is altijd maar zo effectief als de kwaliteit van zijn gegevens. AI is gevoelig voor databias en andere verkeerde voorstellingen van data-informatie tijdens het bedenken en ontwikkelen, wat leidt tot ongewenste resultaten. Dit kan een probleem zijn omdat modellen worden ontwikkeld op basis van AI-systemen. Dit is als het bouwen van een huis op een zwakke fundering die later vatbaar wordt voor scheuren en scheeftrekken.
Er is nog een ander probleem: de gegevens zijn misschien nauwkeurig en betrouwbaar, maar er zijn veiligheids- en privacytoezichten. Het delegeren van alledaagse taken en informatie aan AI voelt handig, maar de veiligheid van de gegevens zelf is een bijzaak. Dit is gevaarlijk.
Dan spelen sommige slechte karakters meer kwaadaardige rollen: opzettelijk deelnemen aan gegevensdiefstal, corrupte processen introduceren, de zuiverheid van de gegevens verpesten en daarmee de reputatie en financiën van het bedrijf. Dit vernietigt de betrouwbaarheid van kunstmatige intelligentie. De slachtoffers van gegevensdiefstal zijn niet de enigen die lijden. De hele wereld kijkt toe en vraagt zich af hoe veilig de AI-systemen waarvan ze afhankelijk zijn, werkelijk zijn. Maar het is zelden alleen AI die de schuld heeft. Door AI-vertrouwen en risicobeheer tot een organisatieoverschrijdende inspanning te maken, kan de betrouwbaarheid van AI gestaag worden opgebouwd.
AI besturen: betrouwbare systemen in stand houden
Hoewel veel bedrijven de waarde van AI erkennen en deze in hun kaders opnemen, is het bouwen van betrouwbare AI een wat nieuwere wetenschap. Aangezien kunstmatige intelligentie in alle sectoren van de economie de overhand krijgt, zijn eerlijkheid en ethiek belangrijker dan ooit.
Landen ontwikkelen meer regels en voorschriften met betrekking tot het gebruik van AI. Verder gaan dan wat niet alleen verplicht en verwacht is, is een verantwoordelijkheid die we allemaal delen. We moeten ook doen wat billijk, duurzaam en verantwoord is. Als we kunstmatige intelligentie creëren die betrouwbaar is en gebaseerd is op compassievolle principes en uitgangspunten, dan is de toekomst die voor ons ligt veelbelovend.
Iedereen binnen een bedrijf moet op de hoogte zijn van de veelbelovende toekomst van AI in zijn huidige vorm met het verhogen van menselijk medeleven, zelfs de gemeenschap. AI-governance maakt deel uit van het handhaven en handhaven van die betrouwbaarheid.
Training in AI-concepten, beveiliging en privacy is een noodzaak in de steeds veranderende technologische wereld. Dit is een belangrijke stap in het voorkomen van slechte of verkeerd weergegeven gegevens. Verantwoording en ethiek moeten naast AI-onderwijs worden onderwezen.
Een humanistische benadering betekent het verschil kennen tussen wat waardevol is en wat kan leiden tot databias. Analyse, beveiliging en bescherming moeten worden geïmplementeerd vanaf de ideevorming tot de modelleringsfase van AI.
Het kruisen en onderzoeken van zowel de data als hoe de AI daarop reageert en functioneert, leidt tot waardevolle inzichten. Die inzichten vormen de sleutel tot het verbeteren van gegevens, AI-systemen, klanttevredenheid, innovatie en zelfs omzetgroei. Het is van groot belang dat AI traceerbaar, verklaarbaar, betrouwbaar en billijk is.
Verklaarbare AI
Aarzeling is een veel voorkomende ervaring bij het overwegen van de adoptie van kunstmatige intelligentie. Misschien zijn teamleden en medewerkers bang dat AI hen zal vervangen, of zijn stakeholders ongerust. Verklaarbare AI maakt de innerlijke werking, processen en voorspellingen van AI coherenter. AI Explainability zorgt voor vertrouwen in organisaties wanneer het stadium van AI-adoptie is aangebroken.
Een deel van het besturen van AI en ervoor zorgen dat het tegelijkertijd waardevol en ethisch is, is om het te begrijpen – en het vervolgens uit te leggen aan degenen binnen de organisatie. Nadruk op transparantie, privacy en veiligheid stelt ons in staat om de rol die AI in ons leven speelt beter te waarderen… en het te vertrouwen.
De gegevens beschermen: lessen in privacy en beveiliging
In mijn vele gesprekken met tech-innovators bij toonaangevende bedrijven zoals IBM, Microsoft en anderen, is de unanieme gedachte: AI is slechts zo goed als de zuiverheid of kwaliteit van zijn gegevens. Maar als de essentiële gegevens in AI worden ingevoerd, hoe wordt deze dan beschermd en beveiligd? Er zijn veel verschillende manieren om te certificeren dat de data en AI-systemen zo veilig mogelijk zijn. Beveiliging en privacy vormen de kern van wat AI-governance zou moeten inhouden.
Het is essentieel om naar de gegevens zelf en het doel ervan te kijken. Evenzeer is het nodig om bij te houden waar de informatie vandaan komt, vandaan komt en wie de gegevens heeft ontvangen. Dit creëert uitgebreide informatie over mogelijke gegevensproblemen en volgt deze naar de bron.
Het trainen van degenen die AI ontwikkelen op het gebied van privacy en beveiliging is net zo belangrijk als het hebben van effectieve AI. Ze moeten op de hoogte zijn van de risico's van kunstmatige intelligentie. Gegevensinbreuken en AI die vooringenomenheid in stand houden door defecte algoritmen en gegevens van slechte kwaliteit is iets om serieus te nemen.
Trainen rond AI is de sleutel
Iedereen in een organisatie zou naast ethiek ook training over privacy en beveiliging moeten krijgen. Dit laatste is een motivator om gegevens te beschermen tegen mogelijk onethische hackers en algoritmen. Versleuteling van datasets, training en processen zijn best practices die vooral nodig zijn tijdens elke fase van het leven van AI. Door kunstmatige intelligentie veiliger te maken, kunnen we deze beter vertrouwen en beheren.
Hoe kunnen we AI vertrouwen als we elkaar niet kunnen vertrouwen?
Uiteindelijk is AI net zo betrouwbaar als mensen. Daarom is de focus van de mensheid in tech vooral essentieel in dit huidige wereldtoneel. We beginnen AI te "leren" wat het zal worden en passen ons aan die veranderingen aan.
Echt intelligente AI is nog ver weg, maar het voelt ook niet meer als sciencefiction. AI die compassie, ethiek, aansprakelijkheid en veiligheid in beeld brengt, is van onschatbare waarde. Het is onze verantwoordelijkheid om AI te beheersen die verder gaat dan de regels en voorschriften die van ons worden verwacht om uitzonderlijk eerlijk te zijn. Door de valkuilen te herkennen, zoals onvoldoende gegevens of slechte algoritmen, en de kwetsbaardere punten van AI te identificeren, kunnen we ons voorbereiden op onvoorspelbare of ongewenste resultaten. Door te bevestigen dat AI samenhangend, verklaarbaar en gemakkelijk te begrijpen is, kunnen we er beter op vertrouwen. Ervoor zorgen dat gegevens veilig en nauwkeurig zijn, is een noodzakelijk onderdeel om ervoor te zorgen dat ze op hun beurt ethisch zijn.
We moeten ook meer vriendelijkheid en mededogen betrachten met onze medemensen. We kunnen een machine slechts zoveel vertrouwen als we onszelf kunnen vertrouwen. Dat concept kan zowel beangstigend als verhelderend zijn. Navigeren door een wereld waar technologie elk aspect van ons leven kruist, confronteert in zekere zin onze menselijkheid. We hebben meer informatie tot onze beschikking dan ooit tevoren. We worden geconfronteerd met de complexiteit van onszelf, onze uniciteit en onze overeenkomsten die naar ons worden weerspiegeld. Misschien is dat de ware angst voor AI – het zal meer over onszelf onthullen dan we zouden willen weten.
Ik denk niet dat deze openbaring iets is om bang voor te zijn. We kunnen AI gebruiken om een meer humane wereld en toekomst voor ons allemaal te creëren. Sterker nog, ik geloof vurig dat we groei vinden op het kruispunt van technologie en menselijkheid.
Gebrek aan vertrouwen in het bouwen van een betere toekomst verstikt innovatie. Vooruitkijken met optimisme, hoop en vertrouwen stellen in het onbekende is een mentaliteit die groei en mededogen mogelijk maakt – waardoor we betere mensen kunnen worden. Erkennen waar we nog ruimte hebben om te verbeteren, maakt plaats voor een groter zelfbewustzijn en ook dat leidt tot groei. Weten waar we anderen in ons leven weigeren te vertrouwen, waar we het meest kwetsbaar zijn, helpt om meer empathie te cultiveren.
Vertrouwen op AI is het gemakkelijkere om te doen. Elkaar vertrouwen is misschien een grotere uitdaging, maar het is wat we moeten doen als we een solide basis willen bouwen voor de toekomst van werk en leven.
Helen Yu is auteur en keynote spreker. Ze is uitgeroepen tot Top 10 Global Influencer in Digital Transformation door IBM, Top 50 Women in Tech door Awards Magazine, Top 100 Women B2B Thought Leader in 2020 door Thinkers360 en Top 35 Women in Finance door Onalytica. Je kunt Helen Yu vinden op Twitter @YuHelenYu.
Abonneer u op de ClickZ-nieuwsbrief voor inzichten in het veranderende marketinglandschap, prestatiemarketing, klantervaring, thought leadership, video's, podcasts en meer.
Ga met ons in gesprek op LinkedIn en Twitter .
Het bericht Kunnen we AI vertrouwen als we elkaar niet vertrouwen? verscheen eerst op ClickZ .
