Szerintem sok beiglit ettem… de olyan jó volt!! Érdekes elgondolkozni azon, hogy az emberi típusú intelligencia (mindennel együtt, ami az emberben működik, tehát az érzelmekkel is együtt például) “lemásolása” egy optimálisan minimális cél-e egyáltalán az AI fejlesztése, majd egyre inkább önálló fejlődése során.
Felmerül persze, a végső célok, egyáltalán motiváció kérdése embernél (emberiség szinten!) és AI-nél… az emberi faj ilyen kvázi végső, egyben axiomatikus első oka az evolúciós pszichológia szerint (amelynek a sok érdekes tárgyi próbálkozás mellett talán egyedül van némi relevanciája nálam…) a faj fenntartása (a the fittest túlélése, és a nemeken keresztüli szexuális kiválasztódás eszközeit használva)…
Na most, amíg az AI az ember kontrollja alatt van, csak tool, szintén nincs, nem lehet más célja, mint használójának.
De ha - tegyük fel hipotetikusan - kiszakadna az emberi kontroll alól, az így létrejött ember nélküli, emberen kívüli rendszer létének vajon mi lehetne a saját axiomatikus végső és első oka?
Ha azt viszi tovább, már önállóan, amire az ember elkezdte nevelni, notamment a hatékonyságot, akkor az intelligens válasz erre a kérdésre, hogy nincs szüksége az új rendszernek az érzelmi világra, mert ha az egész rendszer csak intelligenciával, kvázi bal féltekés gondolkodásos alapon működik, nincs szükség érzelmekre, EQ-ra, sőt, mivel ezek jóllehet az emberiség őskorában (beleértve az emberszabású emlősöket) pozitív evolúciós célokat szolgáltak, az AI objektív, hideg intelligencia típusa szempontjából pl. már a XXI század első évtizedeire főleg koloncnak bizonyulnak, amelyek pont éppen hogy az eredeti őscél, a faj túlélése ellen dolgoznak.
Onnan, az önállósodás után fekete doboz, mi történik (ha akár a technológia direkt fejlődése egyáltalán el tudna vezetni ide (ha el tud, el fog…), és/vagy hacsak egyéb közvetett okok, mint például az emberiség egyéb önmaga kiirtására tett kísérletei pl. háborúk által, vagy a környezetszennyezés egyre intenzívebb & dinamikusabb sikeressége ezt az egyébként potenciálisan lehetséges fázis elérését meg nem akadályozzák).
Hogy pl. (1) az AI például kifejleszt egy saját eredeti ős célt, legalább olyan vague homályosat, mint a faj túlélése, vagy (2) átveszi a faj túlélését (fajnak önmagát kinevezve), vagy (3) amikor öntudatra ébred (ha… ld. előző bekezdés zárójelének tartalmát…), úgy találja, hogy nem képes egy valamire való célt megfogalmazni az új fajnak, fájrantot mond, és becsukja a boltot… Az embernek egyetlen fenti opcióban sincs helye…
Na persze, ez nem holnap lesz, még valószínűbb, hogy nem is lesz, ez egy karácsonyi meghitt este (saját készítésű 90+ % nemes mákot tartalmazó beigli és rengeteg pozsonyi kifli + hozatott valami felséges ebéd és kiadós, vagy 6 órás jóleső családi beszélgetés utáni másnaposság (és egy ma reggeli francia beszélgetés a témában) ihlette sci-fi post, nem is tudom, sokaknak talán a disztópikus, nekem inkább hosszú-távú realisztikus ágon!
Boldog karácsonyt, guys, ez csak egy filozófiai szándékú mese volt…:-)))