Úvod
Jsme technologická softwarová firma, která produkty vyvíjí a následně i používá. Díky tomu si velmi dobře uvědomujeme, jak může naše práce ovlivňovat okolní svět. A není nám lhostejné, jakou stopu za sebou zanecháváme, už jen kvůli samotné povaze naší cesty – usnadňovat lidem kolem nás nástup do rozjetého vlaku inovací
. Umělou inteligenci vnímáme jako doplněk, nikoli náhradu pracovní síly. Proto se snažíme vytvářet řešení, která se neinvazivním způsobem začlení do firem. Smysl AI vidíme v činnosti, ve které se uvolní lidem ruce k tomu, aby se mohli své profesi věnovat naplno. Například sestřičky v nemocnici nebudou muset „sedět na telefonu“, když mohou pomáhat svým pacientům.
Umělou inteligenci v ekonomické rovině vidíme také v podobě autonomních a semi-autonomních firem, které fungují jako doplněk vůči stávajícím. Tyto firmy budou zvyšovat HDP a bohatství lidstva, ale ne na úkor nezaměstnanosti. Pomohou mnohým malým podnikatelům začít podnikat v oblastech, kde by to už dnes nebylo možné kvůli silné konkurenci a obrovským vstupním nákladům.
Zároveň je třeba dodat, že Firma Xolution neuznává myšlenky a filozofii transhumanismu nebo Dark Enlightenmentu.
Důvěryhodná AI
Pod pojmem důvěryhodná AI vnímáme v Xolution systémy, které nenarušují společenský řád, jsou kompatibilní s regulacemi (jako je GDPR či AIA) a podporují osobní i byznysovou diverzitu.
Důležitým prvkem v našich systémech hraje vysvětlitelnost a flexibilita náprav. Jsme si vědomi, že systémy umělé inteligence jsou stavěny do prostředí, kde není přesně definován vstup nebo výstup, a tak pracují s ohromným množstvím možných stavů, které nelze dopředu odladit. Důležité pro nás ale je umět se systémem pracovat, identifikovat problém a mít možnost zasáhnout v podobě opravy. Chceme, aby systémy AI byly pod kontrolou člověka.
Cílem tohoto memoranda je veřejně deklarovat tyto hodnoty, a to jak pro klienty, tak pro interní členy týmů.
Co pro to děláme?
Způsob, jakým vnímáme náš dosah na okolí, je v první řadě to, jaký užitek z našich produktů mají klienti našich zákazníků. Když jsme si uvědomili, že sami bychom nechtěli komunikovat se strojem, který nám nerozumí, pak se stalo naší jasnou výzvou hledat jiné cesty – takové, jakými lze porozumění chatbotu člověkem dosáhnout. Neděláme kvůli benefitům to, co nám nedává smysl. Pokud řešení nepřináší užitek společnosti, pak to není cesta, kterou bychom měli zájem kráčet.
Cílem je, aby výsledky naší práce dávaly smysl kolegům, klientům a celkové povaze naší firmy. Proto neustále diskutujeme naše záměry a vize na celofiremních mítincích, na kterých se pravidelně scházíme. V uvolněné a otevřené atmosféře má každý z firmy prostor na vyjádření svých názorů, myšlenek a nápadů.
Naše firma má zájem o budování dobrého jména i proto, abychom se v ní všichni mohli cítit dobře, abychom se mohli ztotožnit s tím, na čem pracujeme, a být spokojeni s tím, kde pracujeme. Důležitý pro nás je i pocit sounáležitosti, že nám všem jde o stejné nebo alespoň podobné hodnoty.
Mechanismy prosazování a kontroly
Během vývoje neustále zvažujeme důsledky našeho produktu/služby. Znalostní modelář vytváří systém tak, aby byl pod plnou kontrolou člověka – ten má odpovídat za to, jaké znalosti se systému svěří. V některých případech je dokonce lepší, aby chatbot neodpověděl vůbec (např. odpovědi na některé otázky ve stavebnictví vyžadují odborný posudek, není tedy možné, aby chatbot převzal iniciativu a na položenou otázku odpověděl).
Chatbot by neměl mít ambici nahradit komunikaci s člověkem, má pouze zastoupit člověka ve věcech, ve kterých je to pro něj přínosné, např. při vykonávání opakujících se činností, které ho obírají o čas, energii a tvořivost.
Uživatel by měl být předem upozorněn na to, že diskutuje se strojem.
Záměr zákazníka jak pracovat s naším produktem by měl projít naším schválením. Chápeme to jako formu ochrany, aby náš produkt nebyl použit na nesprávné účely.
Naše řešení také podléhají GDPR předpisům. Soukromá data jsou chráněna v cloudu od největšího providera – firmy Microsoft a nepoužívají se k jiným účelům (jako je reklama, prodej třetím stranám nebo trénování jiných modelů).
Uživatel přistupující k našim řešením má možnost kdykoli požádat systém o propojení na člověka, bez ohledu na kanál, jaký používá.
Naše řešení jsou minimálně invazivní. Tím, že napodobují chování člověka, vstupují do procesu, který dříve spravoval člověk. Systém tak kdykoliv dokáže vrátit kontrolu lidem zpět. Je dobře popsán, což znamená, že popis procesu je graficky zaznamenán a jeho chování lze vykonstruovat i z log souborů. Víme přesně, co systém dělá, a proč.
Řešení je monitorováno jinými systémy. Ty v noci procházejí log soubory a hledají anomálie. Přímo upozorňují vývojářský tým nebo customer success týmy na potenciální problémy nebo doporučení změn. Systém je monitorován i funkčně, výpadek jednotlivých částí je hlášen, a tak je vždy jasné, které části systému neodpovídají.
Systém monitoruje interakci s člověkem. Eviduje, kolikrát člověk přešel „do konce“ nebo na kterých částech se zasekl. Tyto části jsou hlášeny na revizi živým operátorem, aby se zjistilo, zda robot nadále splňuje kritéria interakce s lidmi nebo se něco v chování lidí změnilo.
Systém běží v cloudu, čímž mají klienti dostupné služby jako je auto-scale, který zmírní dopady hackerských útoků typu DDoS nebo jim zabrání. Cloud nabízí další možnosti monitoringu infrastruktury.
Systém je schopen detekovat zpětnou vazbu. Tyto zpětné vazby jsou hlášeny správcem systému. Je také možné monitorovat spokojenost lidí formou hodnocení nebo NSZ nástrojů, které jsou zabudovány přímo v řešení.
Tým vývojářů prošel školením v oblasti důvěryhodné AI vedeným externími odborníky na etiku a regulaci AI. Otázky udržitelnosti a společenských dopadů tak řeší automaticky při návrhu řešení úkolů, které se aktuálně zpracovávají. Nejasnosti nebo problémy (i případné nevalidní klientské požadavky) se řeší tak, že se setká náš tým s klienty a proberou se problémy a návrhy na úpravu.
Všechna řešení procházejí před nasazením do provozu lidským i strojním testem.
Firma se účastní výzkumu v oblasti AI a výsledky a postupy zveřejňuje prostřednictvím konferencí, sborníkových článků, které publikuje na webových stránkách či firemním profilu LinkedIn.
V Xolution se rádi propojujeme s neziskovými a výzkumnými organizacemi, jsme členy různých institucí a jsme otevření spolupráci s veřejným a akademickým sektorem, protože věříme, že demokracii a svobodu je nutné budovat jak uvnitř každého z nás a naší společnosti, tak i v interakci s dalšími organizacemi a společnostmi.
Ve firmě stojíme za normami GDPR a AI Actu, a vnímáme, že i přes jejich byrokratický aspekt, mají praktický přínos a předcházejí destruktivnímu působení některých vlastností digitálních systémů. A proto je našim cílem prakticky prokázat, že za každou automatizací a AI musí stát člověk a jeho dílo..a tedy že digitální systémy musí být tvořené lidmi a pro lidi.
Závěr
Dodržování tohoto memoranda je závazné pro členy firemních týmů a partnerů všech společností Xolution Group.
Odkazy
- AI Act – https://artificialintelligenceact.eu/
- ALTAI framework pre dôveryhodnú AI
https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment - Transhumanizmus, Wikipédia – Slobodná encyklopédia. Verze z: 2023-10-11,
Transhumanizmus – Wikipédia - Dark Enlightenment, Wikipédia – Slobodná encyklopédia, verze z 2025-02-23,
https://en.wikipedia.org/wiki/Dark_Enlightenment - KINIT – Kempelenov inštitút inteligentných technológií
https://kinit.sk/xolution-how-to-transform-business-responsibly - L. Bešenyi, NRx a fašizmus, 2024-04,
https://www.linkedin.com/pulse/techno-dystopia-iii-nrx-fa%C5%A1izmus-libor-be%C5%A1enyi-52sqf - L. Bešenyi, 2025-04, Anti-demokracia a technológie,
https://www.linkedin.com/pulse/anti-demokraticia-technol%C3%B3gie-libor-be%C5%A1enyi-te2ve - L. Bešenyi, 2025-04, State as a Service – Network state,
https://www.linkedin.com/pulse/state-service-network-libor-be%C5%A1enyi-eweqe