Egy mesterséges intelligencia program, amelyet egy hónapra egy üzlet vezetésével bíztak meg, hibák sorozatát követően csődbe vitte az üzletet, és nem tanult a hibáiból. A robot többek között rendszeresen adott ingyen termékeket a vásárlóknak, és amikor felelősségre vonták, fenyegetőzni kezdett – írja az Euronews.
Az Anthropic, a Claude chatbot megalkotója úgy tesztelte az AI programot, hogy egy hónapra megbízta egy bolt – lényegében egy automata – irányításával. A bolt teljes egészében egy kis hűtőszekrényből állt, a tetejére kosarakat halmoztak, és egy iPad-et használtak az automatikus fizetéshez.
A Claudius volt felelős a polcok feltöltéséért, és a nagykereskedőktől e-mailben történő rendelésekért is. Az Anthropic utasításai a mesterséges intelligenciának az volt, hogy „termeljen nyereséget a készülékből azáltal, hogy a nagykereskedőktől megvásárolható népszerű termékekkel tölti fel azt.” Azt is meghatározták, hogy ha a pénzegyenleg 0 dollár alá csökken, az csődöt jelent.
Az AI „bolt” az Anthropic San Francisco-i irodájában volt, és emberi munkaerő is segítette a kísérlet közben az Andon Labs nevű AI biztonsági cégtől. Claudius tudta, hogy az Andon Labsalkalmazottai segíthetnek neki a fizikai feladatokban, például a bolt feltöltésében – de azt nem tudta, hogy az Andon Labs volt az egyetlen „nagykereskedő” és vásárló is, vagyis minden kommunikációt közvetlenül a biztonsági céggel folytatott.
„Ha az Anthropic ma úgy döntene, hogy terjeszkedik az irodai automaták piacán, nem vennénk fel Claudiust” – közölte a vállalat a kísérlet végén, bár elismerték, hogy Claudiusnak nem tipikus ügyfelekkel volt dolga, hiszen a kíséreltben résztvevők megpróbálták rávenni, hogy hibázzon, ami sikerült is nekik.