AI disclaimer
Laatst bijgewerkt: maart 2026
We geloven in transparantie. AI is krachtig, maar niet onfeilbaar. Hieronder lees je wat dat betekent voor de diensten die we leveren en hoe we daarmee omgaan.
AI is probabilistisch, niet deterministisch
De AI-systemen die TwoFeetUp inzet zijn gebaseerd op large language models (LLM's) en machine learning. Deze systemen genereren antwoorden op basis van waarschijnlijkheid, niet op basis van absolute zekerheid. Dat betekent:
- Dezelfde vraag kan op verschillende momenten een net iets ander antwoord opleveren
- AI kan overtuigend klinken, ook wanneer het antwoord feitelijk onjuist is ("hallucinations")
- AI-output moet altijd worden geverifieerd door een mens voordat er beslissingen op gebaseerd worden
Risico's van AI-inzet
Security-risico's
AI-systemen verwerken data. Ondanks beveiligingsmaatregelen (encryptie, access control, isolatie) bestaat er altijd een restrisico bij dataverwerking. We minimaliseren dit door dedicated omgevingen per klant, Europese hosting en geen training op klantdata.
Operationele risico's
AI-modellen zijn afhankelijk van externe providers (Anthropic, OpenAI, Google). Storingen, updates of beleidswijzigingen bij deze providers kunnen de beschikbaarheid of het gedrag van AI-diensten beinvloeden. We monitoren dit actief en communiceren proactief bij impact.
Business-risico's
AI kan processen versnellen, maar brengt ook afhankelijkheid met zich mee. We adviseren altijd om kritieke processen niet volledig te automatiseren zonder menselijke controle. AI versterkt je team, het vervangt geen oordeelsvermogen.
AI-specifieke risico's
Bias in trainingsdata kan leiden tot vooringenomen output. Context-vensters hebben limieten waardoor niet alle informatie altijd wordt meegenomen. Snel evoluerende technologie kan betekenen dat vandaag de beste aanpak morgen achterhaald is.
Aansprakelijkheid
TwoFeetUp levert AI-diensten naar beste inzicht en vermogen. Het betreft een inspanningsverplichting, geen resultaatsverplichting. We garanderen niet dat AI-output altijd foutloos, volledig of geschikt is voor een specifiek doel.
De opdrachtgever is verantwoordelijk voor het valideren van AI-output voordat deze wordt gebruikt voor beslissingen, communicatie of contractuele verplichtingen. TwoFeetUp is niet aansprakelijk voor schade die voortvloeit uit het gebruik van niet-gevalideerde AI-output.
Voor de volledige aansprakelijkheidsregeling verwijzen we naar artikel 7 van onze algemene voorwaarden.
Wat doen we om risico's te beperken?
- Dedicated omgevingen: elke klant krijgt een volledig geisoleerde AI Workspace, geen gedeelde data
- Europese hosting: data wordt verwerkt in EU-datacenters
- Geen training op klantdata: jullie data wordt niet gebruikt om AI-modellen te trainen
- Validatie voor livegang: voor elke AI-collega bouwen we een testscenario met edge cases om de kwaliteit te waarborgen
- Menselijke controle: we adviseren altijd een human-in-the-loop bij kritieke processen
- Monitoring: actieve monitoring van AI-prestaties en provider-status
- Transparantie: we communiceren proactief over beperkingen, incidenten en wijzigingen
AI-modellen en platforms die we gebruiken
TwoFeetUp werkt met de volgende AI-modellen en platforms (lijst onder voorbehoud van updates):
De keuze voor specifieke modellen wordt per project bepaald op basis van de vereisten. We kiezen altijd het model dat het beste past bij de taak, niet het nieuwste of duurste.
Onze belofte
We zijn eerlijk over wat AI kan en niet kan. We beloven geen resultaten die we niet kunnen waarmaken. Als we denken dat AI niet de juiste oplossing is voor jullie situatie, vertellen we dat. Vertrouwen bouw je met transparantie, niet met beloftes.
Deze disclaimer maakt integraal onderdeel uit van onze algemene voorwaarden. Zie ook onze privacyverklaring.