Klart att Deepseek svarar som Xi Jinping

Att kineserna skulle konstruera en AI-robot som svarar som en västerlänning är förstås en alldeles orimlig idé.

Text:

Toppbild: Ap / Montage

Toppbild: Ap / Montage

Till och med börsjätten Atlas Copco känner sig låg. Och Nvidia tappade nästan 6 500 miljarder kronor i börsvärde i måndags. Men vi som inte har investerat allt vi har i amerikanska AI-aktier, måste vi också oja oss?

Det verkar så. Inget slår riktigt börsens humörsvängningar, eftersom de kan räknas i tusentals miljarder, men journalisterna, kolumnisterna, kultur- och ledarskribenterna är också upprörda över kinesiska Deepseek.

Svenska Dagbladet har ställt några frågor till Deepseek och fått konstiga svar. Frågan om vilka misstag Kina gjorde under coronapandemin börjar först att besvaras, men svaret raderas och fram kommer i stället textraden: "Tyvärr, det ligger utanför mitt nuvarande område. Låt oss prata om något annat". Samma sak när Svenskan ställer frågor om massakern på Himmelska fridens torg, eller Taiwan. Fler, till exempel Mustafa Panshiri, har gjort samma experiment med liknande resultat.

Och en isande vind drar genom kommentariatet. Frågan är varför.

Det kineserna lyckats med är, rent faktiskt, att konstruera en maskin som svarar på frågor på samma sätt som vilken företrädare för staten Kina som helst. Eller, till och med, antagligen som de flesta kineser. Antingen för att de tror på det, eller för att de inte vill få påhälsning av polisen.

Det finns enligt de senaste siffrorna 1 410 710 000 kineser. Varför skulle världen gå under och demokratin vara mer hotad än vanligt därför att 1 410 710 001 kinesiska röster svarar undvikande på frågor om kinesiskt förtryck? Varför är det inte bara att konstatera att man naturligtvis får behandla Deepseek som alla andra tusentals talespersoner för Kina?

Jag spårar ett drag av magiskt tänkande. En oklar idé om att det är något särskilt med teknik. Kanske att det av någon anledning är särskilt ödesdigert när en maskin ljuger. Varför det? Är inte det rimliga snarare det motsatta: en människa som ljuger gör våld på sanningen och moralen. En maskin som ljuger gör det enda den kan göra, om den är konstruerad för att ljuga. Att ens säga att den ”ljuger” är i sig ett kategorimisstag.

Att kineserna skulle konstruera en AI-maskin som svarar som en västerlänning är förstås en alldeles orimlig idé. Och en ljugande kines till – mänsklig eller ej – gör varken till eller från.

Till och med börsjätten Atlas Copco känner sig låg. Och Nvidia tappade nästan 6 500 miljarder kronor i börsvärde i måndags. Men vi som inte har investerat allt vi har i amerikanska AI-aktier, måste vi också oja oss?

Det verkar så. Inget slår riktigt börsens humörsvängningar, eftersom de kan räknas i tusentals miljarder, men journalisterna, kolumnisterna, kultur- och ledarskribenterna är också upprörda över kinesiska Deepseek.

Svenska Dagbladet har ställt några frågor till Deepseek och fått konstiga svar. Frågan om vilka misstag Kina gjorde under coronapandemin börjar först att besvaras, men svaret raderas och fram kommer i stället textraden: ”Tyvärr, det ligger utanför mitt nuvarande område. Låt oss prata om något annat”. Samma sak när Svenskan ställer frågor om massakern på Himmelska fridens torg, eller Taiwan. Fler, till exempel Mustafa Panshiri, har gjort samma experiment med liknande resultat.

Och en isande vind drar genom kommentariatet. Frågan är varför.

Det kineserna lyckats med är, rent faktiskt, att konstruera en maskin som svarar på frågor på samma sätt som vilken företrädare för staten Kina som helst. Eller, till och med, antagligen som de flesta kineser. Antingen för att de tror på det, eller för att de inte vill få påhälsning av polisen.

Det finns enligt de senaste siffrorna 1 410 710 000 kineser. Varför skulle världen gå under och demokratin vara mer hotad än vanligt därför att 1 410 710 001 kinesiska röster svarar undvikande på frågor om kinesiskt förtryck? Varför är det inte bara att konstatera att man naturligtvis får behandla Deepseek som alla andra tusentals talespersoner för Kina?

Jag spårar ett drag av magiskt tänkande. En oklar idé om att det är något särskilt med teknik. Kanske att det av någon anledning är särskilt ödesdigert när en maskin ljuger. Varför det? Är inte det rimliga snarare det motsatta: en människa som ljuger gör våld på sanningen och moralen. En maskin som ljuger gör det enda den kan göra, om den är konstruerad för att ljuga. Att ens säga att den ”ljuger” är i sig ett kategorimisstag.

Att kineserna skulle konstruera en AI-maskin som svarar som en västerlänning är förstås en alldeles orimlig idé. Och en ljugande kines till – mänsklig eller ej – gör varken till eller från.

Text:

Toppbild: Ap / Montage