Hotet för coolt för att bli rädd för
Bild: Kin Cheung/AP
Intuitionsförmågan hos människan är sorgligt underutvecklad, sa neurovetaren och filosofen Sam Harris i ett Ted Talk förra året.
Han pratade om livsfarliga hot vi är urusla på att varsebli.
Han tog upp något både mycket farligt och sannolikt, som vi saknar en adekvat känslomässig respons för: artificiell intelligens (AI).
Som om tanken på en science fiction-död är för cool för att bli rädd för.
De intelligenta maskinerna har snart utvecklat superintelligens, och kommer att överglänsa oss intellektuellt med hästlängder. Vår egen överlägsenhet gentemot kycklingar lär verka marginell.
Vi ropar alla: »Wow, kör på!« Som om tanken på en science fiction-död är för cool för att bli rädd för.
De superintelligenta kommer inte att behöva hata oss för att ta kål på oss, påpekade Harris. Se på oss och myrorna. Vi råkar bara trampa på dem, låter bli om vi kan. Men om de är i vägen dödar vi dem utan en skälvning inombords.
Harris väckte vår slumrande intuition inför det uppenbara hotet från AI till liv på samma sätt som andra intelligenta företrädare för människorasen, som Stephen Hawkins, Nick Bostrom, Elon Musk och Bill Gates gjort.
– Dags, sa Harris, att dra i gång ett Manhattanprojekt som kanske kan kontrollera utvecklingen.
Regeringens AI-rapport andades varm teknikvurm och politisk sömngångarprosa.
Den som trodde att regeringen i sin nationella inriktning för artificiell intelligens, som kom i förra veckan, snappat något av det som borde vara en intuitiv riskhantering, misstog sig.
Rapporten andades varm teknikvurm och politisk sömngångarprosa: »både offentlig sektor och näringslivet har ett stort intresse av att tillvarata och kommersialisera nya forskningsresultat inom AI«.
Samtidigt har rapporter haglat om hur de smarta telefonerna har fått oss människor att bli dummare. Vi beter oss mer som styrda djur nu för tiden än tänkande människor.
Kanske är det vår intuitiva försvarsstrategi att, långt innan datorerna blir miljoner gånger smartare än oss, själva bli robotar.