par MacIntoc » 05 Aoû 2006, 14:07
Eridan a écrit:MacIntoc a écrit:Eridan>Tu ne te rend pas trop compte de la difficulté de programmer une IA.
Si j'imagine très bien. Programmer des logiciels qui ne sont pas de IA c'est parfois très complexe, alors une IA......
Justement, ça n'a strictement rien à voir. Tu ne peut pas définir de règle strict comme pour un programme classique. Jérémie ne peut pas dire à la Marabounta "Tu n'attaques les Lyokonautes sous aucun pretexte".
Pour se défendre, la Marabounta à besoin d'éprouver une certaine crainte
On parle d'un simple programme (comparé à Xana). La crainte de signifie rien pour la marabounta. Je la voit comme une simple machine, complexe certes, mais pas vraiment comme une IA au sens de Xana.
[/quote]
Encors une erreur. la Marabounta n'est pas un programme. Ce sont plusieurs IA simple (qui peuvent donc éprouver de la crainte) qui agissent ensemble. Regarde les humains. Combien d'humains sur Terre souhaitent détruire la planète comme nous le faisons ?
Elle est programmée pour répondre à des attaques et détruire tout éléments hostiles. Et prévoir une procédure de sécurité pour exclure quoi qu'il arrive les lyokonautes coule de source (dans le principe, je parle pas de la complexité à programmer, en supposant que Jérémie en soit capable).
On peut pas définir de règle stricte. Ca empècherait la marabounta de faire quoi que ce soit.
Après, cette procédure à des trous dans la sécurité qui confère un comportement aberrant par rapport a ce qui a été initialement prévu
Ce n'est pas une faille. C'est une erreur de la Marabounta. Il faut savoir qu'il est impossible de faire une IA qui ne fasse pas d'erreur. Si c'était possible, nous ne fairions pas d'erreur non plus.
Face à un inconnu que tu ne peux pas attaquer, que fairais-tu ?
Justement les lyokonautes ne sont pas sensés être inconnus de la marabounta.....
Hu ??? Que je sache, les Lyokonautes n'ont jamais été présenté à la Marabounta.
Et comme je l'ai dit je voit la marabounta comme un simple mécanisme (encore une fois simple dans son principe pas dans sa réalisation)
Encors une erreur. Renseigne toi sur le jeu de la vie. A partir de règles simples, il est possible d'effectuer n'importe quelle opération informatique.
La composition et la proportion de chaque élément atomique de l'univers est donnée par la célèbre suite '1-11-21-1211-111221,...'.
Une réalisation simple peut également aboutir à un mécanisme complexe.
Là tu fait référence à des réactions humaine mais on est pas en face d'un humain, ni même du programme d'un IA qui pourrait intégrer ses notions.
C'est ce qui différencie un programme d'une IA. Une IA ressent des émotions. Pas de la même manière que nous. Mais elle sait reconnaitre ces sentiment et y réagi.
Un réseau neuronal artificiel composé de seulement 10 neurone artificiel est capable de conduire une voiture.
Si chaque boules est un réseau neuronal ne serait-ce que 10 fois plus importants (composé de 100 neurones, donc), tu imagines la capacité de réflexion de l'ensemble ? Comment pourrais-tu prévoir la réaction d'un tel organisme ?
[quote="Eridan"][quote="MacIntoc"]Eridan>Tu ne te rend pas trop compte de la difficulté de programmer une IA.[/quote]
Si j'imagine très bien. Programmer des logiciels qui ne sont pas de IA c'est parfois très complexe, alors une IA......[/quote]
Justement, ça n'a strictement rien à voir. Tu ne peut pas définir de règle strict comme pour un programme classique. Jérémie ne peut pas dire à la Marabounta "Tu n'attaques les Lyokonautes sous aucun pretexte".
[quote][quote]Pour se défendre, la Marabounta à besoin d'éprouver une certaine crainte[/quote]
On parle d'un simple programme (comparé à Xana). La crainte de signifie rien pour la marabounta. Je la voit comme une simple machine, complexe certes, mais pas vraiment comme une IA au sens de Xana.[/quote][/quote]
Encors une erreur. la Marabounta n'est pas un programme. Ce sont plusieurs IA simple (qui peuvent donc éprouver de la crainte) qui agissent ensemble. Regarde les humains. Combien d'humains sur Terre souhaitent détruire la planète comme nous le faisons ?
[quote]Elle est programmée pour répondre à des attaques et détruire tout éléments hostiles. Et prévoir une procédure de sécurité pour exclure quoi qu'il arrive les lyokonautes coule de source (dans le principe, je parle pas de la complexité à programmer, en supposant que Jérémie en soit capable).[/quote]
On peut pas définir de règle stricte. Ca empècherait la marabounta de faire quoi que ce soit.
[quote]Après, cette procédure à des trous dans la sécurité qui confère un comportement aberrant [b]par rapport a ce qui a été initialement prévu[/b][/quote]
Ce n'est pas une faille. C'est une erreur de la Marabounta. Il faut savoir qu'il est impossible de faire une IA qui ne fasse pas d'erreur. Si c'était possible, nous ne fairions pas d'erreur non plus.
[quote][quote]Face à un inconnu que tu ne peux pas attaquer, que fairais-tu ?[/quote]
Justement les lyokonautes ne sont pas sensés être inconnus de la marabounta.....[/quote]
Hu ??? Que je sache, les Lyokonautes n'ont jamais été présenté à la Marabounta.
[quote]Et comme je l'ai dit je voit la marabounta comme un simple mécanisme (encore une fois simple dans son principe pas dans sa réalisation)[/quote]
Encors une erreur. Renseigne toi sur le jeu de la vie. A partir de règles simples, il est possible d'effectuer n'importe quelle opération informatique.
La composition et la proportion de chaque élément atomique de l'univers est donnée par la célèbre suite '1-11-21-1211-111221,...'.
Une réalisation simple peut également aboutir à un mécanisme complexe.
[quote]Là tu fait référence à des réactions humaine mais on est pas en face d'un humain, ni même du programme d'un IA qui pourrait intégrer ses notions.[/quote]
C'est ce qui différencie un programme d'une IA. Une IA ressent des émotions. Pas de la même manière que nous. Mais elle sait reconnaitre ces sentiment et y réagi.
Un réseau neuronal artificiel composé de seulement 10 neurone artificiel est capable de conduire une voiture.
Si chaque boules est un réseau neuronal ne serait-ce que 10 fois plus importants (composé de 100 neurones, donc), tu imagines la capacité de réflexion de l'ensemble ? Comment pourrais-tu prévoir la réaction d'un tel organisme ?