Royal Quest. Как бот Лёха лук точил. Лук 65. Забавная басня.
Els robots, igual que els humans, han d’aprendre quan diuen “no”. Si una sol·licitud és impossible, causaria danys o els distreia de la tasca en qüestió, llavors és en el millor interès d’un bot i el seu humà per igual per a un diplomàtic no gràcies ser part de la conversa.
Però, quan hauria de respondre una màquina? I en quines condicions? Els enginyers estan intentant descobrir com inculcar aquest sentit de com i quan cal desafiar les ordres en els humanoides.
Mireu aquest robot Nao que es negui a caminar cap endavant, sabent que fer-ho el farà caure de la vora d'una taula:
Coses senzilles, però sens dubte imprescindibles per actuar com a comprovació de l’error humà. Els investigadors Gordon Briggs i Matthias Scheutz de la Universitat de Tufts van desenvolupar un complex algoritme que permet al robot avaluar el que un humà li ha demanat, decidir si ho hauria de fer o no i respondre adequadament. La investigació es va presentar en una recent reunió de l’Associació per al Avanç de la Intel·ligència Artificial.
El robot es fa una sèrie de preguntes relacionades amb si la tasca és capaç. Sé com fer-ho? Sóc físicament capaç de fer-ho ara? Normalment sóc capaç de fer-ho? Puc fer-ho ara mateix? Estic obligat en funció del meu paper social per fer-ho? Viola qualsevol principi normatiu per fer-ho?
El resultat és un robot que sembla que no només és sensible, sinó que, fins i tot, és savi.
Tingueu en compte com Nao canvia d'opinió sobre caminar cap endavant després que l'home es comprometés a atrapar-lo. Seria fàcil imaginar un escenari diferent, on el robot diu: "De cap manera, per què he de confiar en tu?"
Però Nao és una criatura social, pel disseny. Per agradar als éssers humans es troba en el seu ADN, donat que tenint en compte la informació que l’home té la intenció d’atrapar, s’abandona cegament cap a l’abisme. És clar, si l’home hauria d’enganyar la seva confiança, s’hauria d’acoblar, però confia de totes maneres. És el camí de Nao.
A mesura que els companys del robot es tornin més sofisticats, els enginyers de robots hauran de fer front a aquestes preguntes. Els robots hauran de prendre decisions no només per preservar la seva pròpia seguretat, sinó també per qüestions ètiques més grans. Què passa si un humà demana a un robot que matés? Per cometre un frau? Per destruir un altre robot?
La idea de l’ètica de la màquina no es pot separar de la intel·ligència artificial: fins i tot els nostres automòbils sense conductor del futur hauran de ser dissenyats per fer opcions de vida o de mort en el nostre nom. Aquesta conversa serà necessàriament més complexa que lliurar ordres de marxa.
Tesla Semi Images suggeriment de grans exigències de càrrega que superen els vehicles elèctrics regulars
El Tesla Semi està en moviment. Només unes hores després que s’ha produït un vídeo de YouTube del proper camió completament elèctric, més fotos s’han penjat com a prototip de la versió del vehicle a través dels Estats Units. Els detalls de la seva última aparició suggereixen que el vehicle és una bèstia amb fam.
Com es revelen els "descomptes hiperbòlics" les deficiències típicament humanes
Qualsevol que hagi vist el "Diari de Bridget Jones" sàpiga que una de les seves resolucions d'Any Nou és "No sortir cada nit, sinó quedar-se i llegir llibres i escoltar música clàssica". No obstant això, la realitat és substancialment diferent. Avui, les grans dades ofereixen una nova visibilitat sobre com les persones experimenten entreteniment en tres forces.
Amb una audiència 'Global', Netflix farà front a noves exigències de censura
Després de la conferència de Netflix al CES 2016, va haver-hi molt que recollir dimecres. A més de fer servir Will Arnett i Chelsea Handler per oferir actualitzacions sobre els seus nous espectacles, així com deixar anar la bomba de contingut que la seva plataforma ara estarà disponible a tot el món, el CEO de Netflix, Reed Hastings, també va anunciar ...