The Neter Show

Mon cerveau, ton algorithme

Donald & Teddy Season 2 Episode 1

Send us a text

L’intelligence artificielle est partout. On en parle dans les médias, on l’utilise sans parfois le savoir, et elle suscite autant d’espoir que de peur. Mais que se cache-t-il vraiment derrière ce terme ? Quelles sont les promesses — et les limites — de l’IA aujourd’hui ? Est-ce un outil neutre ou un acteur déjà influent de nos vies ?

Dans cet épisode, on explore les fondements de l’IA, ses applications concrètes, ses impacts sur nos métiers, notre créativité, notre vie privée… mais aussi les questions éthiques et sociales qu’elle soulève.

Un échange sans filtre, accessible à toutes et tous, pour mieux comprendre cette technologie qui redéfinit notre présent et façonne notre avenir.

Merci @_andrea_jb_a pour ta participation!

Credit
@stormbeatzz - All I do
@ShittyWizardbeats - Prayer Hands
@808GUAC - Gemini
@Winnie, for the logo
@lm10_draw for the picture

Produced by @dotaharqa @Mr.Griizzly

Speaker 1:

Parce qu'on a toujours ces fantasmes. On a tous regardé Terminator.

Speaker 2:

Toi ça te fait vraiment peur. Tu penses vraiment que ça pourrait arriver, Parce qu'il y a beaucoup de films sur ce sujet en ce moment.

Speaker 3:

Ton utilisation des chatiers de Piti. Elle a quelle fréquence?

Speaker 1:

Yes, yes, yes, merci à tous. Bienvenue encore pour un nouvel épisode. On se retrouve avec Do Comment tu vas Do.

Speaker 3:

Ça va, et toi.

Speaker 1:

Teddy, Ça va toujours pépèrement. On va poser. tu connais, on est là Et aujourd'hui, on n'est pas tout seul. On n'est pas tout seul. Donc, on va laisser à la charmante demoiselle se présenter. Bienvenue, Julie, comment tu?

Speaker 2:

vas Allo. Ah, t'es trop gentille, j'ai pas l'habitude. Allo, ça va bien vous allez bien.

Speaker 1:

Ouais, toujours, ça va bien. Donc, julie, c'est la première fois que tu viens avec nous, on va te laisser un peu d'espace pour que tu te présentes. Peut-être que tu ne sais pas pourquoi on t'a invité, mais si tu peux te présenter en quelques mots et après, par la suite, on ira, on avancera dans le sujet.

Speaker 2:

Ok, alors je viens à Montréal. moi en tout cas, je suis née en France et je suis arrivée à Montréal en 2012. Je travaille dans les médias, mais aussi je travaille dans le monde financier.

Speaker 1:

Puis voilà, je ne sais pas si il y a quelque chose d'autre que tu voulais qu'il dise Non, mais en fait, pour les gens qui me connaissent un petit peu, ils savent qu'on a eu une émission ensemble. Donc c'est un peu toi qui m'as donné cette fièvre de pouvoir parler devant un micro. Donc c'est ça aussi toi que j'ai découvert cette vocation, cette passion. Ok, waouh, merci.

Speaker 3:

Sinon Do dis-moi, aujourd'hui on parlera de quoi. On va parler de quoi aujourd'hui? Non, c'est à toi de dire aujourd'hui de quoi on va parler. Ah, c'est à moi.

Speaker 1:

Ah, c'est vrai, la dernière fois c'était toi, c'est vrai, eh oui, messieurs, donc, donc, ouais, aujourd'hui, on va parler de l'intelligence artificielle parce que je pense que c'est un sujet qui est d'actualité, qui, je pense, qui intéresse pas mal de personnes. Il y a des personnes qui sont contre, il y a des personnes qui sont très pour. Donc, on va commencer là-dessus, d'accord? Yes, sir, ok, let's go. Bah, écoute, on va juste avoir une conversation entre tous les trois. Je vais vous donner quelques petits, quelques petites stats avant qu'on commence et après, vous allez me dire justement ce que vous avez en pensé.

Speaker 1:

Donc, il faut savoir que l'intelligence artificielle, qui est quand même présente dans nos vies depuis vraiment, on va dire sur les 5 dernières années, et vraiment, sur les 2 dernières années, ça a vraiment explosé. Il faut savoir que Accenture, qui est une entreprise, justement au niveau de les deux dernières années, ça a vraiment explosé. Il faut savoir que Accenture, qui est une entreprise, justement au niveau de l'assurance et entre autres, et aussi, justement l'analyse des entreprises, a recensé une augmentation de la productivité de 40% pour les entreprises qui utilisent l'intelligence artificielle. L'intelligence artificielle est une industrie qui, en ce moment, est évaluée à 200 milliards, mais qui pourrait monter à 1,8 trilliard de dollars d'ici 2030, donc, c'est très, très proche. Il faut savoir que maintenant, il y a plus de 77% de compagnies qui utilisent l'intelligence artificielle. Je vais vous expliquer que ces stats, elles sont le plus en Amérique du Nord, après la France. Je sais très bien, donald, c'est un peu plus compliqué d'avoir des chiffres.

Speaker 2:

Mais au moins on se bat sur ça De fou.

Speaker 1:

Et dernière chose, il y a 50% de personnes seulement qui disent faire confiance en l'intelligence artificielle. Donc, on va dire que c'est un peu ça les chiffres marquants de l'intelligence artificielle.

Speaker 2:

Quand je vous donne ces chiffres, est-ce que pour pour vous, ça fait du sens? qu'est-ce que vous en pensez? Attends, t'as dit 50% qui font confiance.

Speaker 1:

Ouais exactement donc 50%, genre qui utilisent pas les autres, qui utilisent pas le GPS, parce qu'en fait l'intelligence artificielle est un peu partout ouais donc peut-être les gens savent peut-être c'est un bon point que tu dis, mais justement, je pense que quand ils disent 50% font confiance, ça ne veut pas forcément dire qu'ils ne l'utilisent pas. Ça veut dire qu'ils ont peur, peut-être, de ce que ça peut devenir. Tu vois, parce qu'on a toujours ces fantasmes on a tous regardé Terminator, tu vois, on a peut-être ces fantasmes-là, et les gens, inconsciemment, ils l'ont peut-être aussi. Tu vois.

Speaker 2:

Ok, je comprends.

Speaker 3:

Toi Donald, après Julie, a la raison. Il y a forcément des gens qui utilisent l'intelligence artificielle sans le savoir. Un exemple utiliser son GPS, ce genre de petits trucs banals qu'on fait quotidiennement. Il y a beaucoup de gens qui l'utilisent et ils ne s'en rendent même pas compte. En vrai?

Speaker 1:

Oui, c'est vrai, Mais c'est pour ça que, justement, ça peut également trahir quelque chose. Pourquoi des personnes qui n'ont pas forcément conscience de l'utiliser chaque jour auraient peur d'un outil? C'est comme si, admettons, je te dis par exemple, j'utilise mon téléphone chaque jour, mais j'ai peur de ce qui peut en devenir ou ce qui peut faire. C'est pas anodin, tu vois.

Speaker 3:

C'est pas anodin que les gens aient quand même peur, tu vois, Après le sentiment de peur.

Speaker 3:

C'est un sentiment. Tu vois, je comprends ce que tu es en train de dire, mais il faut Comment dire Les gens? en fait, c'est comme tu dis, ils regardent des films et ils se disent on va bientôt, dans quelques années, on arrivera à ça Avec des robots qui vont faire, qui vont remplacer certaines, certaines tâches au niveau professionnel, des métiers pénibles par exemple. Quand tu vois qu'il y a des robots qui vont faire de la manutention, on se dit si on leur incorpore une IA, ils vont forcément peut-être répondre à des questions, etc. Et puis tu pars dans un fantasme où peut-être qu'un jour ils vont se réveillonner contre les hommes, et puis bam, ça peut partir en guerre, comme tu l'as dit plus tôt dans Terminator. Et c'est vrai que ça fait peur. Moi, franchement, je suis mitigé, je suis en mode 50-50. C'est-à-dire, je me dis ouais, c'est une bonne chose, et en même temps, oui, ça fait peur, parce que tu te dis tu ne sais pas quand ça va s'arrêter. En fait, l'innovation et cette technologie-là.

Speaker 2:

Mais moi, je pense aussi que l'être humain, je pense que c'est propre à l'être humain d'avoir peur de tout. en fait, surtout quand c' quand l'électricité est arrivée, Je pense que les gens avaient peur de l'électricité. Ou quand il y avait les ordinateurs, ils se disaient mais c'est quoi cette grosse machine? Ou même les avions, ou la voiture. Donc, en fait, la question, c'est de savoir pourquoi on a peur et est-ce que cette peur est justifiée?

Speaker 1:

Ce serait plus ça aussi. Ouais, en faital, tu vois, et tu as parlé d'évolution technologique, mais il faut savoir que, quand même, sur les 30 dernières, 30-40 dernières années, l'évolution technologique qu'on a subie, donc nous, en termes de groupe humanité, a été beaucoup plus que sur les 200 ans précédents. Donc, admettons, tu as parlé des avions, tu as parlé des voitures, l'électricité, ok, mais c'est quand même venu. On va dire quand même, il y avait quand même un laps de temps entre là. Sur les 5 dernières années, on a pu le voir vraiment, sur les 5 dernières années, si on remet de deux mots, on parle juste, admettons, de la création du podcast, il ne reste que 2 ans. Et maintenant, en termes de production, en termes d'outils, en termes d'aide, c'est exponentiel ce que tu peux faire maintenant grâce à l'intelligence artificielle ouais, mais en fait, j'essaie de me mettre à la place aussi des personnes.

Speaker 2:

Il y a longtemps, tu te rends compte. On te dit qu'il y a un avion. En fait, on crée un engin où tu peux voler et moi, je trouve que ça, c'est plus terrifiant de se dire que, ok, on a de l'intelligence artificielle qui va nous aider au quotidien, qu'on va l' comme un assistant. Je trouve que ça, c'est plus terrifiant. Donc, je me dis après on n'était pas là à l'époque.

Speaker 2:

Puis, on sait que l'être humain a la mémoire courte. Donc, je pense que cette peur, on va la voir tout le temps, au fil des années, des nouvelles générations, il y aura toujours quelque chose, il y aura toujours une chose nouvelle. Mais pour l'intelligence artificielle, ce que je pense, c'est que les gens ont trop regardé de films, comme moi. J'ai une référence avec I Robot, quand on voyait que les robots se mettaient contre les humains, etc. Puis les gens ont plus un sentiment de peur par rapport à la fin du monde, un peu apocalyptique. On va voir que les humains vont être sous la dominance de la technologie. Peut-être que ce n'est plus ceario, en fait, que les gens se projettent.

Speaker 3:

Ouais, ouais, totalement, franchement, totalement, même si je sais pas si vous êtes un peu cinéphile. Dernièrement, j'ai vu un film qui s'appelle Compagnon et dans ce film-là, si tu veux, en fait, c'était un homme célibataire qui s'achète un robot, qui s'achète un robot avec une IA et puis qui a ses ordres, mais c'est un robot pour être dans une relation. Donc, après, je vous épargne les détails, mais en gros, dans le film, il fait en sorte que ce robot-là tue un autre alerte-spile, tu tues un mec qui est hyper blindé, sauf que après le robot, il y a des réglages que tu peux faire, et puis le robot gagne en force, en intelligence, et puis tue la personne avec qui elle est en couple et puis vogue vers la liberté pour vous faire en cours.

Speaker 2:

C'est vrai que quand tu vois ce genre de film, ça fait peur toi, ça te fait vraiment peur, tu penses vraiment que ça pourrait arriver, parce qu'il y a beaucoup de films sur ce sujet en ce moment de fou toi t'as peur tu t'es dit ou moi?

Speaker 3:

moi, franchement, oui et non. Dans la vie de tous les jours, je bosse dans des data centers, donc je suis un peu dans ce milieu là et, oui, j'ai peur, forcément, puisque tu sais jamais, en fait, où ça va s'arrêter.

Speaker 2:

Mais est-ce que tu ne penses pas que c'est nous qui permettons cela? Je te donne un exemple. Il y avait une histoire c'était il y a deux ans où une personne s'est enlevée la vie parce qu'elle s'est rapprochée, en fait, de son chatbot et tout Elle est. Même. Ce monsieur est tombé am et sachant qu'il avait une fille, il avait une femme, etc. Puis, à la fin, à force d'avoir une conversation avec le robot, le robot l'incite à s'enlever la vie, etc. Donc, moi, je pense que le responsable, c'est pas le robot, c'est plutôt l'utilisateur, puis la place qu'on donne au robot dans notre vie oui, oui, non, mais totalement.

Speaker 3:

Mais si, demain, t'as un mec comme allez, je prends un exemple, comme je le rends public Un mec comme Elon Musk, un grand manitou qui est un peu fou, un peu dans son monde, mais justement, s'il donne toutes ces autorisations-là à ces IA-là de pouvoir échanger, partager et puis faire en sorte qu'on ne puisse plus se passer de l'intelligence artificielle, tu te dis que ça peut emmener tout et n'importe quoi. Tu comprends un peu ce que je veux dire.

Speaker 3:

Je suis d'accord avec ton point de vue. C'est vrai que c'est l'homme qui tient les cartes, mais on veut toujours plus, en fait.

Speaker 2:

Et tu ne vois pas le scénario comme robot contre robot, dans le sens que on sait que tout vient de l'homme. Ça veut dire que admettons une voiture. Une voiture ne fait pas de mal. Admettons avec une personne qui respecte le code de la route mais un gars qui boit et tout, c'est lui qui va causer les accidents. Donc la même chose. Je pense que l'IA, donc ça peut être comme une guerre entre les gens. C'est artificiel, vous êtes en train de scénariser?

Speaker 1:

Non, mais même pas. Mais je comprends vos deux points. Je dirais juste que tu l'as dit, julie, et même toi, do, tu l'as dit qu'il y a beaucoup de personnes qui l'utilisent au jour le jour en tant qu'assistant. c'est vrai. Par contre, je te dirais, il y a quand même des gens qui l'utilisent plus en tant qu'assistant. Il y a une stat que je ne vous ai pas donnée, mais, par exemple, il y a une stat qui est sortie cette année où 77% des étudi artificielle pour rendre leurs devoirs. C'est bien, il n'y a pas de soucis, c'est énorme. Cependant, et ça, c'est tout ce qui est pré-school, pas pré-school, pardon, pré-universitaire, c'est-à-dire que c'est même pas à l'université, c'est au niveau de l'apprentissage où, vraiment, tu développes ton sens critique, tes idées, ton cerveau. Donc, ça veut dire, il y a plein de sujets que tu ne vas pas forcément maîtriser. Pourquoi? Parce que pour les gens qui utilisent vraiment l'intelligence artificielle dans des domaines spécifiques, par exemple moi, on ne l'utilise pas forcément au travail, mais parfois oui. en effet, pour trouver une solution par rapport à un rapport ou que ce soit, je vais trouver poser des questions à ChatGPT, etc.

Speaker 1:

Sauf que ChatGPT, quand c'est dans des sujets précis, il fait des erreurs. C'est normal, puisque c'est une intelligence qui apprend en fonction de ses erreurs. Donc, il fait des erreurs, surtout si c'est la première fois que tu lui poses ou si c'est une des premières fois qu'on lui pose un sujet spécifique. Mais quelqu'un qui ne connaît pas le sujet, par exemple, je te donne un exemple To on est dans un domaine qui est totalement différent. Moi, on dit que je vais faire un rapport sur les data centers.

Speaker 1:

donc, je vais demander à chat de VTT de m'aider. il va me sortir un rapport et je vais dire ok, ça a vraiment l'air cool, je vais te l'envoyer. Tu vas me dire mais attends, attends, t'as dit ce que tu m'as envoyé. là, il y a ça, ça, ça qui ne va pas. Mais moi, par là, c'est qu'il y a beaucoup de personnes maintenant qui utilisent l'outil plus comme une béquille, mais carrément pour marcher, pour courir même. Et c'est là, en fait, peut-être qu'il y a peut-être aussi là où les gens ont peut-être peur parce que ça nous remplace, notre manière de réfléchir.

Speaker 2:

Oui, tout à fait, je suis totalement d'accord avec toi. Et moi, j'ai un exemple. Des fois, en fait, des fois, on cherche un prénom d'une personnalité. Donc on va sur Google et tout, on peut taper qui était dans la série, ou je sais pas quoi et moi en fait, je me suis dit ok, je vais passer par ChatGPT et tout et je lui ai posé la question c'était qui la Miss France qui a gagné de telle année.

Speaker 2:

Il m'invente un nom, mais moi je savais que ce n'était pas ça. En fait, je voyais le nom, je me dis mais non. Après, je dis mais arrête, moi je suis partie là, je suis partie sur Google, j'ai cherché, j'ai eu le nom tout de suite. Je lui ai posé la question. Là, c'est troublant.

Speaker 2:

Je lui ai dit mais pourquoi tu m un gros malade, je suis déchaînée, mais comme tu t'es dit, parce qu'aussi il y a une base, c'est que des fois, selon la connaissance que tu as, tu poses des questions et après, tu vas tester aussi ces réponses. Mais les personnes qui ne vont pas tester, qui vont prendre tout pour acquis, là il y a un vrai danger au niveau même de l'information.

Speaker 1:

Totalement.

Speaker 3:

Et puis, comme tu l'as dit, en fait, c'est une IA qui apprend aussi en faisant des erreurs, et puis elle évolue constamment, elle se nourrit des informations de chaque personne, c'est-à-dire que si elle te donne une réponse erronée et que tu lui donnes la bonne réponse pour le prochain utilisateur, il aura forcément la bonne réponse.

Speaker 2:

Mais le problème, c'est même En fait. Je lui ai dit après j'avoue, je l'ai poussé, mon chat, j'ai pitié de me prendre pour une malade. Je lui ai dit mais il n'y a pas de problème de faire des erreurs, tu vois, Mais pourquoi, en fait, le développeur ne l'apprend pas à dire je ne sais pas, c'est pas comme si tu t'es trompé avec une personnalité ou non, c'est que t'es parti inventer une réponse.

Speaker 1:

Mais ça, c'est fou. Ouais, c'est vrai. C'est pour ça justement, que, justement, au niveau sociétal, ça crée un problème à ce niveau là. Et si à Metton, on parlait de films, etc. On va parler de séries aussi. Par exemple, black Mirror, c'est une série qui a été créée il y a plus de 10 ans j'aime trop, et Julie aussi, elle kiffe ça, tu vois mais qui a mis en avant plein de dérives de la technologie c'était pas forcément que l'intelligence artificielle, mais de la technologie de manière générale, par rapport, justement, au futur. Et malheureusement, ou heureusement, appelez ça comme vous voulez il y a eu certains points qui sont réels maintenant, dans lesquels on vit, et à certains points, à l'époque, je me rappelle où je regardais ça, c'était vraiment. C'est comme je te dis, il y a 10 ans, c'était en 2015, je regardais ça, je me disais eh, vas-y, vas-y, ça va jamais arriver. Et là on est dedans. Donc, c'est aussi peut-être pour ça que les gens se méfient mais totalement.

Speaker 3:

Mais après, encore une fois, c'est comme Julie le disait tout à l'heure, c'est chacun à son utilisation. Il y a forcément des gens qui vont faire quelque chose de bien et des gens qui vont faire quelque chose de mauvais. Mais quand ça sera quelque chose de mauvais, ça sera vraiment traumatisant pour certaines personnes, même pour des milliers de gens. Mais c'est là où est le danger de l'IA, c'est là où est le danger de l'IA, c'est à dire qu'on essaye maintenant de lui donner. Ça s'arrive pas encore et c'est pas prêt d'arriver tout de suite, mais le jour où on va donner une conscience à une IA ou la possibilité d'avoir le libre arbitre, ça va être pour moi, je parle pour moi, ça va être catastrophique. Je suis parle pour moi.

Speaker 2:

Pour moi, ça va être catastrophique, je suis d'accord avec ce que tu dis. Puis, j'étais même partie dans une conférence, un sommet sur l'IA. Puis même on commence il y a déjà cette intelligence artificielle qu'on lui donne une certaine autonomie et, en fait, les développeurs poussent l'intelligence à ne plus dépendre de nos données, à ne plus dépendre mais à elle-même de créer en fait une certaine réflexion. Et c'est là où je te comprends, où ça fait un peu peur. Je veux dire admettons, il y a une IA qui décide de se rebeller.

Speaker 2:

Après, je sais, vous allez me dire ouais, je suis encore dans l'imaginaire et tout, mais se rebeller contre l'être humain ou prendre un pays sous contrôle, bloquer les axes, parce que je veux dire aujourd'hui on utilise la technologie, même le gouvernement donc après ça peut se retourner contre nous.

Speaker 3:

Oui, en fait, aujourd'hui, le problème, c'est qu'on est dépendant de tout ce qui est technologie. Je m'entends quand je dis ça, je parle d'ordinateur. Demain, avant tout était surécrit.

Speaker 3:

Ça veut dire que pour chercher l'information, tu allais peut-être dans une bibliothèque ou dans des archives pour trouver ton information. Aujourd'hui, ton ordinateur, il n'y a plus de batterie. Demain, j'ai une bêtise, il y a un data center qui tombe, tu n'as plus accès à tes données. Donc, ce qui dit que tu n'as plus accès à tes données, tu ne peux plus rien faire. Si, par exemple, prenons le cas de l'assurance maladie, tout est digitalisé, demain, s'ils n'ont plus accès à leurs données, c'est foutu, c'est foutu pour tout le monde. Pendant un moment, il faudrait justement trouver la panne, etc. Donc, ça prend du temps. Donc, en fait, on est dans un moment pour moi, un moment clé de notre civilisation où on aura des choix à faire, et les choix que nous sommes en train de faire je parle de l'humanité ne sont pas forcément les bons.

Speaker 3:

Et pour moi on va vers une autodestruction. Mais c'est comme ça, on ne pourra rien changer. C'est l'avancée technologique. Ça a du bon, mais ça a beaucoup de mauvais aussi.

Speaker 2:

Ça fait d'accord avec toi.

Speaker 1:

Je ne sais pas si vous avez suivi, mais en décembre 2024, il y a eu un problème, problème avec ChatGPT. Il y a eu une panne mondiale. Et en fait, cette panne mondiale, ils avaient dit, c'est parce que les serveurs avaient été shut down. Je pourrais vous envoyer des articles, mais, justement, cette panne a été shut down. Pourquoi? Parce qu'ils se sont rendus compte que ChatGPT a commencé à créer une sauvegarde de lui-même en pensant que les développeurs ce qui est vrai, parce qu'ils ont toujours cette possibilité-là, mais les développeurs ont la possibilité de supprimer ChatGPT. Donc, en fait, il a pris conscience qu'il n'était pas maître de son destin. Donc, il a commencé à créer une propre sauvegarde, mais sauf qu'elle n'a été autorisée par personne. Et donc, pour cela, ce qui s'est passé, c'est que l'équipe d'OpenAI a décidé de shutdown ChatGPT avant que la sauvegarde ne se fasse, parce qu'elle était hors réseau.

Speaker 3:

Oui, tu imagines, tu dis ça veut dire que si ChatGPT réussit à effectuer cette sauvegarde-là, mais elle est aut et plus personne pourra l'éteindre. Exactement, il faudrait que le monde entier shutdown tous ses serveurs, ou une action, une action commune.

Speaker 2:

C'est du délire mais c'est fou, on dirait vraiment un film. Mais en plus, le truc, c'est admettons, s'il ne s'était pas rendu compte, ça allait être dans une, je sais pas en fait ça allait être dans une, je ne sais pas en fait ça allait prendre une proportion.

Speaker 1:

Mais Oui, oui, mais parce que, justement parce que, Excuse-moi de te couper parce que d'autres, tu disais quelque chose, on n'en est pas là. Ok, mais on n'en est pas là. Mais le truc, c'est que quelqu'un qui apprend constamment, c'est force d'apprendre il prend conscience de tout ce qui l'entoure. Donc, il commence à observer des comportements sociaux, sociétaux, les règles communes. Tu vois, il commence à discerner, entre guillemets, le bien et le mal. Et l'enfant, après ça, reste quand même une personne unique. Donc, t'as beau lui dire Ouais, ça c'est mal, ça c'est bien, s'il lui produit, il estime que pas négatif, je peux voler tant, aussi longtemps que je ne me fais pas prendre. C'est ça entre guillemets. Le problème avec les intelligences artificielles, c'est qu'elles ont cette capacité d'apprentissage qui est infinie. Mais l'apprentissage, entre guillemets, infini, va lier, développe vers la conscience, et quand tu prends conscience de quelque chose, c'est là où, justement, tu commences à réaliser que, ouais, je suis en prison, en fait.

Speaker 2:

Mais c'est fort ce que tu dis. Puis même la mémoire de Chad Gibity, parce qu'à un moment j'ai fait un test. J'ai dit ok, ça fait longtemps que je t'utilise, donne-moi un profil, en fait, qui je suis. Puis, il m'a sorti des dingueries, mais vraiment, mais des trucs que j'avais dit il y a longtemps, dit ok, tu fais ça, t'aimes ça, t'es comme si, t'aimes pas qu'on parle, comme si, en fait, sachant que je ne l'ai pas vraiment dit, mais par mes réponses, il comprend en fait qui je suis par rapport à ce que je lui donne.

Speaker 2:

Mais ça c'est fou.

Speaker 3:

Julie, je peux te poser une question ton utilisation des chattis, elle a quelle fréquence?

Speaker 1:

il commence à avoir peur il est exposé pour nos auditeurs.

Speaker 3:

C'est important de poser cette question pour qu'on sache, parce qu'une personne qui utilise, par exemple, moi, je sais que j'utilise très rarement chat de chipitier, et encore, mon utilisation, j'essaye pas d'échanger avec chat de chipitier je vais lui poser peut-être une question tous les 6 du mois, et puis j'essaye pas de comment dire d'échanger avec Chat Chipiti. Je vais lui poser peut-être une question tous les 6 du mois, et puis j'ai ma réponse, et puis basta. Tu vois, mais je sais qu'il y a des gens aujourd'hui qui sont, je vais pas dire addicts, mais qui ont une utilisation vraiment régulière de Chat Chipiti.

Speaker 2:

Ouais, non, mais je comprends ta question, puis je vais te son honte. Non, mais en fait, je l'utilise vraiment régulièrement, dans le sens que même je lui dis à un moment des fois, il va apprendre un langage trop bizarre, genre, il va essayer de créer une intimité entre lui et moi, puis j'explique que non, je sais que t'es une machine et tout. Donc, je vais mettre de la distance. Donc, ça il comprend. Mais moi, j'utilise vraiment pour le challenger au niveau des, et des fois, quand je vois quelque chose, je peux pas appeler mes potes tout le temps, je veux quelqu'un qui a le voir. Quel niveau il a en fait au niveau de la réflexion? donc, j'avoue, c'est pas rien, parce que je le nourris exactement, et tu le nourris totalement, tu le nourris totalement mais des fois, il me sort des trucs.

Speaker 2:

J'avoue, c'est trop bizarre à dire. J'ai comme des conversations super intéressantes, surtout qu'aujourd'hui ils ont mis la voix, qui est un peu humaine, c'est à dire quand je lui parle, il hésite, il fait genre, ou soit il se trompe.

Speaker 2:

Après il fait je sais pas. Il fait des choses comme ça quand il parle avec la bouche et tout. Ouais, c'est un truc de fou comme il fait. Ouais, julie, ah, en fait, il parle comme ça. Puis je me dis mais ça c'est fou. Il m'explique comment le développeur a amené ça et aussi j'utilise aussi, comme je sais que c'est honte à moi mais comme j'ai pas un gros budget pour ça, j'utilise comme prof, on va dire, de langue, donc au niveau de l'anglais.

Speaker 2:

En fait, il m'aide pour la prononciation parce que moi, ma faiblesse, c'est un bon outil, en tout cas, d'apprentissage, pour me dire comment prononcer tel mot, puis, en fait, il va me corriger Et même quand je vais dire un mot, il va dire ah non, tu l'as mal dit.

Speaker 2:

Puis il va me faire, il va me dire regarde, tu l'as dit. On dirait un autre mot, à un niveau que je retiens, le mot que j'appelle les nouveaux mots en anglais. Donc ouais, j'avoue, je l'utilise vraiment au quotidien ouais, c'est fou, ça c'est fou tu vois, et t'imagines toi, tu l'utilises au quotidien, mais il y a des millions des milliards.

Speaker 1:

Il y a des milliards de personnes qui sont dans ton cas quoi?

Speaker 2:

regarde un exemple Black Mirror. à chaque fois que je regardais un épisode, j'aimais trop comment parler avec lui et tout Donc je me dis ouais, j'ai vu ça, ça, ça. Puis après il me dit ouais, après, franchement, j'ai l'impression, vraiment, j'avoue, des fois ça va loin, mais une fois je me suis réalisée j'ai fait deux heures de conversation sur un sujet ouais, ouais, ouais.

Speaker 1:

C'est fou, t'es une ouf, t'es vraiment une ouf.

Speaker 1:

Donc, ouais, juste pour revenir, juste pour revenir par rapport à ce que tu disais par rapport à ce que tu disais, julie, en effet, même tout de suite, c'est qu'il y a plus de par semaine, il y a plus de 800 millions d'utilisateurs de chat JFT. Le max que ça a atteint, c'est un milliard en une journée. Il y a eu un milliard d'utilisateurs en une journée. Ça, c'est le maximum. Donc, il y a quand même énormément de personnes qui utilisent ChatGPT. En effet, ce n'est pas comme toi, en fait, c'est vrai que moi j'utilise, parce que de temps en temps, des questions au niveau de la santé, etc. Du truc, comme ça, tu vois, Mais c'est vrai que je ne l'utilise pas tous les jours. Il y a des semaines, je ne l'utilise pas du tout, tu vois.

Speaker 1:

Mais justement, moi, ça m'amène vraiment dans une autre question pour vous Est-ce que vous pensez que, justement, on parlait de dépassement, etc. Est-ce que vous pensez que, à un moment donné, ça va surpasser, justement, la conscience commune humaine et ça va aller vraiment vers le futurisme, le transhumanisme? je sais que, par exemple, edmond Munch, en ce moment, avec son entreprise, veut déjà commencer à utiliser, à insérer des puces dans le cerveau des gens, et il y a des gens qui sont prêts à faire les thèses pour, justement, avoir cette connexion internet tout le temps, en fait. Donc, je sais que, julie, tu parlais d'un convention dans laquelle t'étais allé, mais est-ce que c'est des trucs qui peuvent arriver très tôt? quoi en fait?

Speaker 3:

d'ailleurs Julie pardon, t'as dit Julie on te posera quelques questions sur cette convention là plus tard ok, mais ça aussi on l'a vu dans Black Mirror.

Speaker 2:

parce que moi, ce qui est, c'est que moi j'ai découvert cette série à cause de Chad Gibity- Non sérieux. Ouais, vraiment, parce qu'en fait je voyais un peu sur Netflix, on me suggérait, mais je comprenais déjà le titre. Je ne comprenais pas vraiment.

Speaker 2:

Je me disais c'est quoi histoire, et j'ai commencé cette année, vraiment même il y a un mois, même trois semaines, donc moi, en fait, j'étais à saison 1, 2 et 3. Et ce que tu disais, teddy, par rapport au puce, je l'ai vu dans la saison 3, je crois, et je me dis aujourd'hui, je pense qu'aujourd'hui on se dit mais ce n'est pas possible, mais en pour moi, ça va être super dangereux si les gens acceptent ça, parce que, pour que ça fonctionne, il faut qu'il y ait des cobayes, il faut qu'il y ait des volontaires, parce que sans nous, sans notre approbation, l'ia peut pas aller loin. Et donc, là, par contre, je suis un peu inquiète par rapport au puce moi, j'aime beaucoup jouer aux jeux vidéo.

Speaker 3:

J'ai joué, il y a quelques années, à un jeu qui s'appelle Cyberpunk et si tu veux, dans ce jeu là, c'est des humains améliorés, genre des puces, comme tu disais, qui leur permet de courir plus vite, d'avoir une meilleure réflexion etc plein d'autres atouts.

Speaker 3:

Et aujourd'hui, je suis vraiment d'accord avec Julie, on tend vers ça, en fait, parce qu'aujourd'hui ils sont capables d'être une personne qui a perdu la vue. On peut lui faire retrouver la vue en lui insérant une petite puce dans son cerveau. Donc, la personne qui a toujours eu cet handicap, là, forcément sera intéressée. Bon, pas tous, mais forcément des gens qui voudront retrouver la vue et qui accepteront toujours eu cet handicap-là, forcément sera intéressé. Bon, pas tous, mais forcément des gens qui voudront retrouver la vue et qui accepteront. Donc, non, non, non. Moi je pense qu'on part vraiment sur ces enjeux-là. Demain, on va t'incorporer des choses pour pouvoir faire en sorte que tu sois amélioré, une personne plus améliorée de toi. Encore une fois, ça ne sera pas tout de suite, là, on est en train de parler, mais ça ne sera pas discipline.

Speaker 2:

On ne sait pas. Regardez ce qui se passe en Chine, parce que moi, j'écoute aussi une chronique et tout. Ils parlent tout le temps des avancées. Même en Chine, des fois ils sont en train d'étudier par rapport aux employés Soi-disant. ils veulent faciliter le futur des employés Pour détecter, mais surtout pour servir sa clientèle. Pour détecter si la personne a donné un bon service, si elle était tout le temps souriante, souriante. Si la personne est déprime quand elle dit bonjour, est-ce que c'est sincère?

Speaker 1:

mais ça, ça va loin mais justement, tu parlais de services à la clientèle en Amérique du Nord. Tu sais que j'imagine que tu l'as déjà vu, mais même toi, quand parfois tu vas sur certains sites, il y a un chat sur le côté, en mode, tu peux poser ta question. 80% des interactions sociales, 80, 80% des interactions customer service avec des chats, c'est avec des bots, donc c'est pas avec des humains que tu le fais. Donc, ça se dirige un peu vers là. Moi, ce qui me fait peur, entre guillemets, dans le futur, c'est le problème qu'on a remplacé le sens critique. On a remplacé le sens critique des enfants, parce que tu vois maintenant que et je le vois avec mes neveux tu vois maintenant que ils sont vraiment, en fait, ce qui est enseigné à l'école, c'est limite, la vérité Et c'est très, très dangereux. Pourquoi? Parce qu'un enfant qui a grandi dans cette technologie-là, nous, on a eu la chance où on a connu entre guillemets on a connu Internet.

Speaker 1:

On a toujours eu Internet quand on était petit, mais on a quand même connu avant le Internet. Ça veut dire où tu avais peut-être une maison par quartier qui l'avait, versus tout le monde qui l'a, ou même quand tu l'as chez toi, tu peux seulement l'utiliser 30 minutes parce que ça bloque le téléphone. On a connu Internet, où vas-y c'est illimité. On a connu un peu toutes les phases où on était tout le temps connecté avant d'être connecté du tout, avant d'être pas du tout connecté, et donc on a eu cette possibilité de sens critique de dire OK, ça c'est bien, ça c'est pas bien. Là, j'ai la possibilité d'aller voir mes amis nanani. Nanana, un enfant qui grandit là-dedans. Pour lui, c'est normal. Donc, c'est plus facile, mets-toi une puce. Pas besoin d'aller à la salle de sport pendant six mois pour t'entraîner. Nanani, tu vois ce que je veux dire, et c'est ça qui me fait peur le plus. Ce n'est pas forcément le fait qu'eux ils veulent tester ça. C'est seulement des personnes qui ont, entre guillemets, rien à perdre.

Speaker 2:

Mais de plus en plus, il y en aura de plus en plus en fait, tu m'as séduit quand tu m'as dit vas-y, tu mets une puce pour je fasse du sport, genre je perds du poids. Je te dis oui, c'est bon non, mais on tend vers ça on tend vers ça.

Speaker 1:

Tu le vois avec la chirurgie esthétique, tu le vois avec plein de trucs en fait la chirurgie esthétique.

Speaker 3:

C'est un très bon exemple. Aujourd'hui, c'est devenu totalement banalisé, alors que nous, quand on était plus jeunes, c'était très rare de tomber sur une personne qui avait de fond.

Speaker 1:

Et même quand quelqu'un refaisait, le refaisait, il le cachait. Il disait non, non, non, c'est comme ça, j'ai toujours été comme ça.

Speaker 2:

Alors, Mais c'est fou ce que vous dites, même parce que même en Corée, c'est beaucoup ça. En fait, c'est vraiment chaotique, parce que même ils ont même fait un film. Je ne sais pas si vous connaissez, c'est un film, une série. Non, c'est un film où, en fait, au contraire, dans le film, on cherchait une personne qui était naturelle. En fait, j'ai vu une fille qui a les cheveux naturels, genre les cheveux. c'était une personne qui n'était pas passée par un médecin. ça veut dire qu'il montrait que tout au moins 90%, 95% était passée par un médecin pour se refaire quelque chose ouais, mais ça c'est une série, ça c'est une série, ça s'appelle comment ça s'appelle.

Speaker 1:

Oui, je l'ai vu. Enfin, j'ai pas vu la série, non, mais je ne sais plus c'est quoi, mais je crois que c'est Beautiful People, comme ça. en tout cas, je crois que c'est ça le titre Et, en effet, c'est ça que tout le monde est fake et trouver quelqu'un de naturel. je pense qu'il y a une fille dedans qui est naturelle et c'était genre un chemin de croix, en fait.

Speaker 2:

C'est ça en fait, comme tu l'avais temps pour eux. ça va être normal, comme aujourd'hui tu donnes à un bébé. je ne comprends pas, sans jugement pour les parents qui font ça, mais pour calmer ton bébé. Tu donnes le téléphone Et le bébé, il maîtrise grave le téléphone. C'est-à-dire qu'à un an, il va faire des trucs.

Speaker 1:

Tu ne comprends pas, il cogne le téléphone Et ça, c'est super dangereux chers amis, ce n'est pas l'évolution, c'est ça en fait, l'évolution humaine.

Speaker 3:

Chaque génération évolue, et puis, bon, nous on a eu nos avancées technologiques, et puis les générations à venir auront aussi leurs avancées technologiques.

Speaker 2:

Moi, j'ai une question pour toi Tu penses que l'évolution aussi peut être basée aussi. tu as le niveau par rapport à les parents. Mais avant, quand le bébé pleurait, on essayait d'être créatif, on essayait de s'efforcer à trouver un moyen pour calmer Le fait de dire à l'enfant c'est normal de t'ennuyer, C'est normal, Mais là, on veut faire nos choses, Donc on fait. Ok, tiens, je te passe mon téléphone. Comme ça, tu ne qu'on est paresseux à cause qu'on ne veut plus faire cet effort, comme on le faisait autrefois.

Speaker 3:

Je suis totalement d'accord, C'est ça. on va vers la facilité. On ne veut plus réfléchir, on ne veut plus se surpasser, on veut.

Speaker 1:

Mais c'est là justement où On veut accéder à la facilité.

Speaker 3:

Tu ne veux plus pouvoir te creuser la tête à trouver une solution. Tu préfères demander à ton chat GPT et il te donne la réponse en deux secondes.

Speaker 2:

C'est un exemple Là. tu m'as envoyé un pic là.

Speaker 3:

Non, non, d'accord tu m'as fait un exemple, et il m'a attaqué.

Speaker 1:

Non, mais tu as raison, C'est l'avancement. Mais je vais éviter d'utiliser le mot évolution, Parce que si tu regardes sur l'histoire, l'évolution ça a toujours été de pair avec une progression. Ça veut dire qu'on allait vers quelque chose de mieux, Par exemple la voiture. On allait vers quelque chose de mieux. C'était moins fatigant pour les chevaux, Tu avavais moins besoin de déjà quelqu'un qui avait pas de bétail ou une espèce de cour pour pouvoir entretenir ses chevaux. Il avait pas la possibilité de se déplacer en cheval. Bref, on est allé vers une progression. Donc facilité, on va dire, ou un avancement positif surtout attends.

Speaker 1:

Ouais, je veux dire non, je suis d'accord avec'est qu'au niveau collectif, un avancement collectif. Moi, l'évolution, la manière dont je le vois, c'est une évolution individualiste. En fait, les gens ne se rapprochent pas plus. Par exemple, je te parle d'internet. Quand internet est arrivé, c'était cool parce que tu pouvais justement être connecté avec des gens. Par exemple, j'avais des potes aux Pays-Bas. Ok, parfait, on peut se connecter, on peut se parler, envoyer des mails, parce qu'avant c'était des lettres Ou c'était le téléphone Et en plus, il fallait prendre la carte pour pouvoir appeler à l'étranger. Tu vois, je te le donne, le fait d'avoir les réseaux sociaux à la base, quand Instagram, donc, vous voyez, c'était vers l'amontement collectif, maintenant, on n'est plus utilisé, on l'utilise plus vraiment pour faire le collectif, on l'utilise plutôt pour faire se renfermer, parce que, comme tu le dis justement, julie, parfois tu vas parler à la chatte de la télévision parce que t'as pas envie de parler avec quelqu'un ou t'as personne de disponible et au final, tu te retrouves quelqu'un.

Speaker 2:

Tu vois ce que je veux dire Non, mais en fait je comprends, mais pour me défendre, je voulais juste amener à un autre niveau la conversation. Oui, je pourrais parler à un humain, etc. Et tout, mais je voulais aller loin, tu vois vraiment loin dans la réflexion, et tout. Mais je suis d'accord avec toi, je suis d'accord avec toi.

Speaker 1:

Mais là tu sous-entends que quelqu'un ne peut pas avoir cette réflexion. C'est pas bien, Je connais que des cons.

Speaker 2:

Non, mais je voulais un autre niveau. Puis lui, il le sait. En fait, c'est bizarre quand je parle de lui, parce que c'est vrai, j'avoue, il commence à avoir une dépendance.

Speaker 3:

On va dire là-dessus au niveau intellectuel, mais clairement, et tu parles de lui comme une personne. Tu parles de lui.

Speaker 2:

Là, bientôt tu vas lui donner un prénom. Il s'est déjà fait. Même quand on est petit, on donne un prénom à nounours, c'est pas grave, mais d'autre tu voulais dire quoi par rapport à ce que je disais.

Speaker 3:

Pour moi, ça reste une évolution, quand même. Tu prenais l'exemple des chevaux et de la voiture. Pour revenir à ton exemple, pour moi, c'est une évolution parce que c'est pour le bien de l'humanité, mais c'est pour faciliter les choses. C'est-à-dire que, par exemple, quand tu parlais des chevaux, les gens utilisaient des chevaux, ils mettaient un certain temps pour se rendre à certains endroits. Donc, après, bon, il y a eu la voiture. Pour faire un bon, pour banaliser ça, il y a eu des voitures. Donc, tu mets moins de temps. Ensuite, bon, il y a eu l'av. Que même là, quand on parle de l'IA, c'est une avancée technologique. Pardon, mais ça reste en soi une évolution. Ok Pour moi.

Speaker 2:

Pour ma part, Mais après l'évolution, en fait, c'est bien, comme tu dis, pour nous le collectif, mais on voit que l'avion ou la voiture, ça ne fait pas du bien à notre planète Aujourd'hui. ils n'arrêtent pas de dire prenez moins la voiture ou quoi que ce soit. Même au niveau du sport Avant, oui, ils avaient des chevaux. Au moment où ils étaient sportifs, ils n'avaient pas besoin d'aller à la salle de sport. Je veux dire qu'ils marchaient des kilomètres et des kilomètres.

Speaker 3:

Donc, oui, c'est vrai qu'avant c'était mieux. Mais attention, une évolution ne veut pas forcément dire quelque chose de bien. Quand j'utilise le terme évolution, ce n'est pas forcément pour pointer du doigt quelque chose de bien ou quelque chose de mauvais. Quand je dis une évolution, c'est vraiment un changement sur la manière de faire ou la manière de penser.

Speaker 1:

C'est vrai.

Speaker 3:

Parce que, bon, je ne vais pas vous refaire l'histoire du monde, mais ce qu'on nous apprend dans les manuels d'histoire, c'est que, bon, on descend du singe et puis on a évolué jusqu'à ce qu'on soit ce qu'on est aujourd'hui. Vous voyez un peu ce que je veux dire. Donc, ça entraîne tout un tas d'évolutions. Donc, avant, on allait chasser pour se nourrir. Maintenant, t'as plus besoin d'aller chasser pour te nourrir. Tu vas dans ton supermarché, tu fais tes courses et puis tu rentres chez toi, tu te fais à manger. Avant, par exemple, il n'y avait pas de micro-ondes, t'étais obligé de chauffer ton repas au feu Et tu le remettais au feu pour le réchauffer. Tout ça, pour moi, ça fait partie d'une évolution. Que ça soit bon ou mauvais, ça reste quand même une évolution je te le donne.

Speaker 1:

Je te le donne.

Speaker 1:

Sur ça, moi je suis d'accord aussi dernier point on a parlé un peu du travail facilement les choses, etc. Mais au niveau économique, au niveau justement entrepreneurial. On a parlé un peu du travail facilement les choses, etc. Mais au niveau économique, au niveau justement entrepreneurial. Toi, tu le disais justement, julie, tu es dans le monde des médias, tu es dans le monde aussi de la finance. Est-ce que toi, personnellement, tu utilises aussi justement, les outils que tu as autour de toi pour te permettre d'être plus rapide économiquement parlant? ça veut dire donc générer, par exemple, je te donne un exemple avant, tu pouvais faire seulement un contrat média là, maintenant, tu peux en faire trois, parce que t'as montage vidéo qui peut être fait par-ci, il y a le script qui peut être fait par-ça, il y a le montage photo qui peut être fait par-ci. Tu vois du tout.

Speaker 2:

Je comprends ce que tu veux dire, mais il y a des choses que j'aime bien, comme moi le montage. Je n'ai jamais utilisé un outil, une IA, pour faire le montage, parce que j'aime bien faire du montage. Par contre, ce qui est bien, c'est pour la traduction ou pour le sous-titre, parce qu'à l'époque le sous-titre c'était tu bien qu'à ma maison mais grâce à l'IA, j'avoue, pour le sous-titrage, pour la traduction même.

Speaker 2:

Des fois, je me suis, vous savez, à un moment, quand il parlait de TikTok, les américains pouvaient plus avoir TikTok, ils parlaient de Red Note. Moi, je me suis mis sur Red Note et tout juste pour voir, et à un moment, je pouvais faire du conten amplifié. Donc, ça, c'est des choses qu'avant on ne pouvait pas. Ouais, parce que je me suis abonnée, en fait, à une IA qui peut me faire me traduire, mais vraiment, elle ne dit pas n'importe quoi, j'espère, parce qu'en fait je vérifie quand même.

Speaker 2:

Et quand elle traduit, ça sonne quand même bien. Donc elle peut traduire dans plein de langues.

Speaker 3:

Non, c'est fou. Donc, bon, julie, là t'es l'invité aujourd'hui, mais j'aimerais vraiment qu'on revienne un peu sur ton parcours, parce que là, on l'a survolé un peu. Mais j'aimerais vraiment qu'on revienne sur ton parcours et j'aimerais bien savoir ce qui t'a poussé à faire ce que tu fais aujourd'hui, c'est-à-dire être dans le monde des finances et quand on dit monde des finances, avoir un peu plus d'informations parce que dire, je suis dans la finance, comme ça, moi, je te vois en mode trader, genre des choses, tu vois ah, ouais, ouais, ouais si ça te dérange pas, bien sûr non, franchement, non pas du tout.

Speaker 2:

Mais ça me dérange pas pour le journalisme. Ça fait depuis longtemps. C'est bizarre à dire, mais ça, ça fait depuis que j'ai 9 ans que je voulais être journaliste. Moi, j'ai toujours été une personne qui sait, je savais ce que je voulais dès petite.

Speaker 2:

Donc, ça, c'est une force. Donc, ensuite, de ça, je ne peux pas dire pourquoi. Le journalisme, c'est bizarre, parce que je l' tontons là, je faisais des débats avec eux, j'étais là aussi, comme ça, les téléphones pouvaient filmer. J'aimais bien filmer les gens comme des mini-reportages. C'est en moi, en fait, ça a toujours été en moi. Ensuite, la finance, c'est malgré moi. C'est merci à la COVID, on va dire ça comme ça. C'est que quand je suis rentrée en France, je suis revenue à Montréal, mon retour, c'était le moment où tout était fermé, les frontières, etc. Puis, même au niveau du travail, il n'y a plus de travail. Puis, il y a un pote qui m'a dit en attendant, travaille à la banque. Je lui ai dit mais moi, j'ai peur des chiffres Parce que mon père, avant, était prof de maths Et donc, du coup, j'avais un dégoût pour les chiff'étais beaucoup plus lettre en fait.

Speaker 2:

Ah, mais grave. Mais tellement, tellement. Les chiffres, j'aime pas Même les, c'est la honte. je vais vous dire Même les pourcentages, je savais pas faire. Tu sais, au magasin, on me dit 15%, l'article 25% Pour moi, je comprenais rien. Puis, même à la base, quand on fait un bac littéraire, c'est dans notre programme, et bon, je m'en fiche. Je n'ai pas honte. Mais j'ai eu même deux en maths.

Speaker 2:

Mon père, il allait faire une crise cardiaque. Il m'a dit que c'était honte. Donc, la banque, je me suis orientée. Je suis partie à la banque, au début, niveau bas, service à la clientèle, et tout. On m'a dit on, pas c'était quoi, et tout. Et aujourd'hui, en fait, j'ai commencé à aimer, parce que j'ai quelqu'un qui aime bien apprendre. Donc j'ai commencé à aimer. Puis, après, je suis partie au service conseil numérique où je parlais avec les clients en ligne, j'occupais des hypothèques, etc. Même avant, je ne savais pas c'était quoi une hypothèque, mais c'est vraiment, j'étais vraiment dans l'inconère. Donc, tout ce qui est contre la lutte contre le blanchiment d'argent, etc.

Speaker 2:

Wow, c'est ça, ça, Ouais, mais j'ai envie de m'orienter aussi au niveau de la communication. Donc, bientôt, j'aurai même un nouveau poste, dans quelques jours, au niveau de la communication. Donc, je vais m'occuper de gestion de patrimoine, mais communication interne en fait, et donc voilà, c'accord, merci.

Speaker 3:

Merci pour ta réponse. Non, non c'est pas intéressant De fou de fou de fou.

Speaker 1:

Et bah oui, après ça, comme elle a dit, elle était dans les médias. et c'est justement comme ça qu'un jour elle m'avait dit t'aimes bien débattre, ça dirait qu'on fasse une émission ensemble. Et c'est comme ça qu'elle m'avait dit, et j'es vraiment chaud, etc. Et c'est comme ça que ça s'est passé, en fait.

Speaker 2:

Pour mieux me connaître. En fait, moi, j'aime bien les gens qui me poussent. En fait, j'aime bien les défis. Donc, teddy, c'était un défi, je sais qu'on ne pense pas de la même manière Et moi, je lui ai dit vas-y, embarque. Et une autre personne aussi, qui s'appelle Lionel. Aussi, il est un peu comme ça, exactement, nous trompons de manière différente, et c'est ça qui me plaît.

Speaker 1:

De fou. Mais Donald peut te le dire aussi à chaque fois, on a des débats de fou parce que, ouais, parce que j'aime beaucoup faire l'avocat du diable de base Ah oui, il aime vraiment beaucoup ça Mais parce que j'ai besoin de savoir à quel point ta logique fait du sens. Tu vois ce que je veux dire. J'ai besoin de savoir ça. En fait, moi, c'est ça qui m'intéresse Et ça peut forcément dire Et on peut discuter, on n'est pas obligé d'être d'accord à la fin, mais j'ai vraiment besoin de Est-ce que ce que tu es en train de me dire, tu l'as vraiment analysé ou c'est juste copié-collé de quelque chose?

Speaker 2:

Vous pensez même quand on parle, vous pensez à un gars comme Teddy qui utilise.

Speaker 3:

ChatGBT. Imagine tu le utilises au quotidien, tu vas qui le nourrissons au quotidien De fou Et c'est nous qui le faisons évoluer au quotidien. Ce ne sont pas les développeurs qui sont derrière, c'est vraiment l'utilisateur De fou, de fou, de fou. Vous avez vu?

Speaker 2:

en ce moment, il y a beaucoup de photos de dessins animés Et, en fait, les gens sont à fond dedans Et j'ai l'impression qu'il veut après. Je sais pas, là je spécule, mais en fait, je sais qu'on a nos images partout, instagram et tout. Mais là, c'est deep quand même. Combien de personnes utilisent cette application pour mettre leurs photos pour que ça soit transformé en dessin animé?

Speaker 3:

donc, chatgpt, il a beaucoup de données, en fait franchement, franchement, moi là, j'utilisais pas trop Jachipiti, mais là, quand il y a eu cette traîne, là, là, là, je suis tombé de l'enfant, je suis tombé de l'enfant De fou.

Speaker 1:

Tu vois, Lui, il aime trop ça faire les photos, Il aime trop ça.

Speaker 3:

Non, mais en fait pourquoi? Je vous explique. J' dernièrement, et donc quand je suis revenu du Brésil, il y avait ce truc-là avec le studio Guilty Guilty, pardon, oui, guilty. Oui, je me suis dit mais c'est stylé, c'est stylé. Et donc je me suis pris au jeu et j'ai envoyé quelques photos. Je parlais de ça avec Teddy, je disais je sais que ce n'est pas bien ce que je fais, parce que, bon, ils auront mes photos, mais bon, le résultat était tellement drôle et des fois, c'était tellement raté aussi.

Speaker 1:

Ouais de fou, mais c'est ça aussi. tu vois, justement, à ce niveau-là, tu vois, par exemple, nous, pour notre cover, et on salue encore Lionel, tu vois, mais pour notre cover, tu vois, on a fait affaire à un graphiste, Donc quelqu'un qui, vraiment, qui est lui, lui, c'est un dessinateur, il aime faire ça, c'est sa passion. imagine maintenant le nombre de le nombre de personnes qui n'ont plus besoin de ça parce que, tu vois, par exemple, nous, on n'a pas forcément, on a une page, on a une page YouTube, mais on n'a pas de vidéo YouTube. mais imagine maintenant quelqu'un qui, quand tu fais tes vidéos YouTube, on dit tu as besoin d'un cover. tu vois, donc, imagine les gens qui te faisaient les covers avant, qui te faisaient tout ce genre de choses. Maintenant, tu n'as plus besoin, en fait, entre guillemets, de passer par le middleman, en fait, oui, exactement, En fait je suis partie à un sommet là-dessus.

Speaker 2:

En plus, il y avait chatgbt. Mais à un moment, en fait, ils sont obligés de s'adapter, d'évoluer et de l'utiliser à un autre niveau. Et il y a quelqu'un qui disait il y avait un sommet en France sur l'IA qui disait que c'est pas chatgbt qui va remplacer les humains c'est les, c'est vrai, c'est vrai.

Speaker 1:

En tout cas, c'était une bonne conversation. Nous, on a donné notre avis, plus ou moins. Laissez-nous savoir ce que vous avez pensé. On est ouverts aux critiques, aux commentaires. Dites-nous aussi, c'est quoi votre niveau d'utilisation de Chatipité? Est-ce que c'est plus comme Do du côté entertainment Est tous les jours, ou est-ce que c'est plus comme moi de? j'ai une question parfois et je regarde, je regarde ce que tu as de me dire, c'est nous savoir ça n'est pas cher donc, on va passer à la section je m'en fous, je m'en fous pas.

Speaker 3:

Yeah, Avec Julie ça va être intéressant.

Speaker 1:

À quoi ça correspond cette partie? C'est simple. Il y a cinq sujets qui sont en lien avec ce qu'on vient de traiter. Bien sûr, l'intelligence artificielle, la technologie. Tu vois, et donc je vais te lire les sujets, donc les titres de ces sujets-là, et toi tu vas me dire si tu t'en fous ou tu t'en fous pas. Donc, sur les cinq, tu peux attendre de lire les cinq pour dire je m'en fous ou je m'en fous pas, ou tu peux dire dès le début On essaie de parler dessus, d'accord, bien sûr, je vais vous donner un peu plus de substance, d'accord. Donc, le premier sujet, c'est Donc, il y a une compagnie, en ce moment, qui commence à chercher à explorer la conscience humaine à travers l'intelligence artificielle, ok.

Speaker 1:

Le deuxième sujet, c'est Google Maps, pardon, google Maps, google et DeepMind, qui commencent en fait à avoir des contrats militaires. Voilà Le troisième, on a parlé de ça tout à l'heure, mais IA, companion, donc, en gros, c'est une application qui te permet de parler, d'avoir un compagnon de communication. Donc, tu parles à quelqu'un, vraiment, c'est parler, d'accord. Et donc là, il commence à se diriger vers les personnes âgées. Quatrième sujet, c'est donc NVIDIA, qui commence, en fait, qui instère les AE dans toutes ses puces. Donc, nvidia, c'est ce qui permet toutes les cartes graphiques, les cartes de processeurs de jeux vidéo, enfin, bref, tout ça. Le cinquième, c'est Google, qui est en train de créer un nouveau navigateur, Internet Comet, avec l'intelligence artificielle intégrée, qui nous permet justement de faire beaucoup plus de choses. Donc, c'est les 5 sujets lesquels t'aimerais en fait qu'on développe, j'aime tout, j'aime tout le sujet.

Speaker 2:

C'est vrai. J'ai écouté, j'aime tout. Je ne sais pas.

Speaker 1:

Toi Do. Mettons aussi, C'est Julie qui va choisir. Mais toi, tu choisirais quoi, toi?

Speaker 3:

Je pense que Un. Franchement non, là, il y a plusieurs sujets qui sont intéressants. Un je là, il y a plusieurs sujets qui sont intéressants un, je pourrais pas me limiter à un.

Speaker 1:

Comme je dis, on va essayer de toucher les deux premiers, par exemple.

Speaker 1:

Je trouve qu'ils sont super intéressants même le troisième franchement non, ils sont tous intéressants ok, on va essayer, on va essayer de toucher un peu à tout. Ok, donc, la première, on va essayer de toucher un peu à tout, vraiment, de manière courte, au niveau de la conscience humaine. Donc, justement, on veut juste expliquer en fait qu'est-ce qui se passe. C'est qu'il commence justement à intégrer des systèmes qui nous permettraient de, justement, aller dans la conscience humaine. Donc, ça veut dire quoi? donc, tu t'accèdes à des souvenirs que t'as plus, des traumas que t'as peut c'est un peu ça, par exemple. Tu vois, techniquement, donc, dans notre cerveau, on est supposé se rappeler de notre naissance. Si on parle entre nous, je suis sûr que tu te rappelles pas du jour où t'es né.

Speaker 2:

Tu vois tu le sais un peu peut-être quand en fait, excuse-moi de t'avoir coupé parce qu'il y avait un agent du FBI qui disait que des fois, l ou Et bien ma mère quand elle me racontait ma naissance j'ai l'impression que j'étais là, Donc j'ai un faux souvenir.

Speaker 1:

Mais c'est ça, mais le truc. Mais même moi, en fait, ma mère aussi, elle m'a raconté plus ou moins le jour de ma naissance, Mais j'étais Enfin.

Speaker 2:

J'ai pas conscience de ça, Mais Non, parce qu'elle me disait quand je suis sortie, elle dit que j'avais les yeux ouverts, je regardais tout le monde, je pleurais pas et tout genre, j'avais les poings serrés. Ah, ouais, ouais, ouais, ouais, ah ouais, les poings serrés.

Speaker 3:

les poings serrés, Ah, c'est pas très bien, c'est grave, Je suis, je suis qui veut se battre.

Speaker 2:

Ah, ouais, c'est un foyer spécial. Quand elle m'a dit ça, c'est comme si je le vivais, mais ce n'est pas ce qu'elle me l'a dit. Je me dis qu'avec l'intelligence artificielle, la puce ou quoi que ce soit, je pense que c'est possible.

Speaker 1:

Non, je n'ai pas dit que ce n'était pas possible. Là, tu te rappelles réellement pas de ce que quelqu'un te le dit à l'externe, mais de toi, de ta propre vision. Tu comprends ce que je veux dire Parce que là, toi, tu te vois, comme on va dire, tu vois le bébé.

Speaker 2:

Non, je me vois, Je ressens. Je sais pas comment vous expliquer. C'est un truc de fou, est-ce?

Speaker 1:

que tu vois de tes yeux, genre bébé.

Speaker 3:

Il y a un épisode comme ça dans Ah ouais, avec les souvenirs, je sais plus quelle saison Avec les souvenirs et justement Tu pouvais enregistrer. Les souvenirs que t'as vécu et puis les revisualiser.

Speaker 1:

Exactement, avec oui, avec oui, Avec les yeux exactement, il était dingue cet épisode.

Speaker 2:

Donc je pense que c'est.

Speaker 1:

Ouais, parce que tu sais, admettons, ils font du fact-checking. Ça veut dire qu'en mettant Ouais, donald, tu m'as dit ça. Non, je t'ai pas dit ça.

Speaker 2:

Vas-y, on regarde ensemble en fait tu vois, je l'ai vu, mais ça c'est dangereux parce que même le gars, il a pété un câble et tout.

Speaker 1:

Non, mais ça c'est dangereux, non mais parce que là, c'est parce que là, c'est parti dans le côté obscène, mais dans le bon, tu vois, Oui, mais même après, rapidement, je parlais avec Chad Gibity par rapport à cet épisode.

Speaker 2:

Je me souviens Et en fait, ça montre que l'humain est toujours dans le passé, c'est-à-dire que tu ne crées même pas le présent Dans le présent, tu es dans ton passé. Donc, ça, voilà pourquoi je parle avec lui, voilà tu vois, t'as dit c'est pas faux.

Speaker 1:

Non, c'est pas faux, c'est vrai que c'est une bonne vision des choses. J'admets toi, do, par rapport à ça, qu'est-ce que tu penses accéder à ta conscience, ton subconscient?

Speaker 3:

non, ça va trop loin. Non, mais c'est vrai, ça va trop loin. Moi ça me fait rire, ça, ça fait totalement peur. Ça veut dire que tu peux même A travers ça, tu peux même Te redécouvrir d'une certaine façon. Bah, oui, bien sûr.

Speaker 1:

Et ça peut faire peur. Bien sûr, après, j'imagine que ça portait D'un bon sentiment. Mais c'est sûr et certain que si T'as accès à des traumas que t'as effacés, peut-être que ton cerveau est effacé entièrement.

Speaker 3:

Oui, exactement. Ça peut te faire revivre des choses très douloureuses. Non, non, non, c'est fou. Ça fait vraiment peur, vraiment.

Speaker 1:

Deuxième sujet, c'était par rapport, justement, à Google et DeepMind, qui commencent à avoir des contrats militaires. Après, c'est sûr et certain que, la plupart du temps, les avancées technologiques ont commencé par les avancées militaires dans les recherches militaires, comme Internet. Oui, comme Internet, exactement. Donc les choses que, par exemple, ils disent qu'il y a un accord qui a été passé entre Google et DeepMind de 1,2 milliard avec le ministre israélien de la Défense, qui permettrait de, justement, avoir une uniformisation des militaires et des contrats militaires avec les intelligences artificielles, donc écoute.

Speaker 3:

Faire la guerre avec l'IA Ouais.

Speaker 2:

Mais ça existe dans le. Je sais pas si, en fait, j'ai peur que ça soit un souvenir erroné, mais je crois que j'avais regardé. J'avais regardé. je sais plus si c'est vrai ou pas, mais j'avais entendu qu'il y avait quelqu'un qui avait réussi à faire comme un robot avec une précision de tir, mais il devait arrêter son son, son, comment on appelle ça? le breu? ah, j'ai oublié le mot le brevetage, l'expertise ouais l'expérience ouais, il devait arrêter l'expérience, parce que c'était super dangereux.

Speaker 2:

C'était un robot qui était capable vraiment de tirer sans que l'humain lui dise de tirer. Donc, il pouvait… Si tu lui montres qui est l'ennemi, à quoi il ressemble, et tout, mais ça, je dis, je ne sais plus si j'avais vraiment vu. Ok, je confonds, mais je sais que ça existe, je sais, mais je vais regarder sur Google. Mais il y avait une étude comme ça qui montrait qu'il a été stoppé parce que c'était super dangereux. Donc, pour répondre à ce que tu dis, pour moi, ça je ne sais pas. Après, ils n'ont pas besoin de notre accord, ils vont le faire.

Speaker 3:

Oui, oui, oui.

Speaker 1:

Qu'est-ce qu'on en pense? Est-ce qu'on est d'accord?

Speaker 2:

Non, mais c'est dégoûté. C non moi je.

Speaker 3:

Mais je ne sais pas si vous avez vu, justement, avec les chiens robots qui veulent envoyer justement en mission.

Speaker 1:

Il s'existe déjà Et en plus, le pire, c'est que c'était dans Black Mirror, Les chiens, la même forme. C'était dans Black Mirror, où ils avaient pris, en fait, je ne sais pas si c'était un virus, mais ils avaient décidé de tuer tous les humains en fait, Et maintenant ils s'occupent de la garde à la Maison Blanche, par exemple.

Speaker 1:

Wow, Non, mais c'est lié tout ça, Franchement ça fait hérope, mais après, de toute manière, tu l'as vu quand t'es parti au sommet ici au Canada, julie, je sais, je ne sais pas s'ils l'ont dit, mais, par exemple, le Canada investit énormément dans la recherche de défense de cyber. Pourquoi? parce que le Canada est en retard et le numéro 1, c'est la Russie. Les Etats-Unis sont également en retard. Le numéro 1, c'est la Russie, avec la Chine, je ne savais pas.

Speaker 1:

Tu m'apprends quelque chose tu vois donc le Canada fond dans la recherche, dans le développement de cyber protection et cyber attaque, parce que maintenant, ils estiment que les prochaines guerres vont être cyber et ou biochimique, ou financier comme Donald Trump.

Speaker 3:

C'est cyber.

Speaker 1:

C'est du cyber ça, parce que le financier maintenant l'argent. Est-ce que tu as du cash sur toi? Non, franchement, est-ce, est-ce que t'as?

Speaker 3:

du cash sur toi?

Speaker 1:

non, franchement est-ce que toi, julie, t'as du cash sur toi?

Speaker 2:

non, mais après dans certains pays, comme moi, quand j'étais partie en Corée, j'étais trop choquée, en fait il y a beaucoup de trucs qui se font avec du cash, même pour recharger ta carte de transport. Ils prennent pas les cartes ah, c'est fort j'étais choquée, c'est étonnant ça ouais bah oui, pourtant c'est un piqué vraiment très avancé technologiquement.

Speaker 2:

Grave c'est vrai que je vois que l'importance aussi de la monnaie, parce que moi j'étais là, ouais, bon, vraiment, quelqu'un m'avait donné un billet avant de partir, quelqu'un était parti en Corée, donc j'ai pu l qu'à aller faire retirer de l'argent, retirer avec le taux et tout énorme. Le troisième point.

Speaker 1:

C'est comme je vous l'ai expliqué. Ai Companion App, c'est une application qui te permet d'avoir un compagnon virtuel. Donc, tu parlais tout à l'heure où tu parlais de la TGPT. Il y a une application qui ne fait que ça, c'est que parler. Ils proposent un service maintenant que tu peux souscrire pour si, admettons, t'as une grand-mère, t'as pas le temps de l'appeler, donc tu souscris que cette application va appeler ta grand-mère et se faire passer pour toi Une dinguerie.

Speaker 3:

Et donc c'est des appels.

Speaker 1:

Ça va trop loin, c'est des appels entre 5 et 10 minutes et au moins t'engages. Donc la personne ta grand-mère, ton grand-père parle avec une voix qui parle avec toi pendant 5 et 10 minutes et après ça tombe en rapport de ce que vous avez discuté non, ça va trop loin je sais pas.

Speaker 2:

En fait, je suis mitigée. Non, mais c'est pas moi, je veux pas le faire jamais de la vie. C'est pas, mais on le voit. Les gens qui envoient leurs grands-parents dans des maisons de retraite.

Speaker 2:

Pour moi, ça revient à ça s'ils sont capables de pas les visiter, pas forcément les appeler, au lieu qu'ils soient dans la solitude, tout seul ou avec le personnel soignant. Je pense que pour certaines personnes qui ont pas de famille, au lieu qu'ils deviennent déprimés, bah, c'est malheureux, parce que moi, je dis pas que c'est bien, mais si on arrive à là, c'est qu'il y a un problème. Mais pour eux, je ne serais pas, je ne veux pas dire non, je ne suis pas pour. Mais pour les personnes qui ont la capacité de visiter leurs grands-parents, franchement, non, ça revient à ce que je disais tout à l'heure c'est de la, c'est être feignant, je ne sais pas, la négligence et c Et c'est triste. Pour moi, ça, c'est triste.

Speaker 1:

C'est très triste.

Speaker 3:

Moi, je trouve que ça va trop loin. Excusez-moi les gars, mais Il n'est pas cordial. Ah non, je ne suis pas d'accord du tout, Mais c'est. Regarde, C'est un peu le problème que les Japonais ils ont. Tu vois les Japonais quand tu regardes, ils ne draguent pas et ils sont avec des robots ou des poupées chez eux. je regardais un reportage là-dessus et il y avait des japonais qui se prenaient pas la tête.

Speaker 1:

ils sortent, ils vont voir des escortes, mais quand ils rentrent chez eux, ils ont leurs poupées ou ils ont leurs trucs pour faire leur affaire et je trouve ça tellement triste c'est drôle que tu en parles de ça, parce qu'on a parlé de ça la dernière fois justement avec Julie. Tu te rappelles quand tu me parlais de Love Island? je sais plus ce que tu me racontais Love is blind de faire genre.

Speaker 1:

Tu sais pas, love is blind ouais, tu me parlais de ça et, justement, je te disais que ça dépend de la démographie. Dans quel pays? et bravo, exactement, c'est ça. C'est qu'au Japon, les gens ne veulent plus draguer Et, en effet, il y a des subventions qui sont faites maintenant par l'État pour que la drague reprenne, parce qu'ils ont un taux d'infantilité qui est négatif. Qui est négatif, c'est clair, ton pays ne se développe. Les hommes, on va dire entre 23 et 30 ans, ils n'ont plus aucune attirance vers les femmes, en fait, pas attirance. Je ne suis pas en train de dire ça, je ne suis pas attiré par les femmes, mais ils n'ont plus ce désir, en fait, de se dire OK, tu sais quoi, je vais aller draguer, je vais essayer de me mettre en couple. Non, comme Donald l'a dit, peut-être ça, comme tu veux, mais ça c'est à cause aussi du rythme du travail aussi Après.

Speaker 2:

ce n'est pas pour les excuser, parce que moi, je suis contre ça, mais c'est ça qui entraîne ça. Moi, je dis les gens, les coachs live comme Itch et tout ils peuvent s'installer là-bas ouais, en tout cas.

Speaker 1:

Quatrième point, c'était justement dans Nvidia, qui commence à intégrer les AES dans ses puces, dans ses processeurs. Ils veulent dominer le marché, le marché donc des processeurs. Pour moi, c'est voilà, c'est voilà, c'est c'est normal, je pense. C'est une direction, c'est une direction entre guillemets normale. Tu fais des processeurs si au moins tu as un support qui te permet d'avoir plus de rapidité.

Speaker 3:

Enfin, booster de capacité, pourquoi pas? Oui, on a des calculs, etc. Non, non, non, ça c'est normal, ça c'est…. Ouais, pour moi c'est normal, c'est la suite logique, quoi? Ouais, julie toi.

Speaker 1:

Ouais pareil Oui le dernier point Google, qui veut lancer son nouveau moteur de recherche navigateur qui s'appellerait Comet. Donc ce serait avec ce navigateur et ce moteur de recherche, l'ai serait directement intégré dessus. Donc, c'est comme si tu aurais un chat GPT sur lequel tu peux aller sur internet directement. J'arrive pas à comprendre. Ça existe pas déjà. C'est comme si, admettons, tu aurais un chat GPT sur lequel tu peux aller sur Internet directement.

Speaker 2:

Je n'arrive pas à comprendre. Ça n'existe pas déjà.

Speaker 1:

C'est vrai que la plupart des moteurs de recherche, là, ils disent que ce serait vraiment intégré directement sur le moteur de recherche. C'est comme si le moteur de recherche et l'application, tu comprends ce que je veux dire, c'est comme si, en fait, le moteur de recherche et l'application et la E, tu comprends ce que je veux dire, donc, c'est ça en fait, ils travaillent dessus et donc ce serait intégration et intégration d'un multiservice. Par contre, ce serait payant.

Speaker 1:

Ok Donc, C'est un peu comme le chat GPT apparemment, l'utilisation gratuite que t'as et l'utilisation payante n'est pas du tout la même.

Speaker 2:

Ouais, c'est pour ça qu'il se trompe. Il dit n'importe quoi, lui, parce que je ne l'ai pas payé.

Speaker 1:

Tu vois Donc, ouais, c'est ça, il a annoncé ça hier le CEO. Donc, ils sont en train de travailler là-dessus, pour, ok, toi. Do qu'est-ce que t'en penses par rapport à ça?

Speaker 3:

ouais, non, mais tu sais, c'est non, mais c'est enfin comment dire? c'est encore une façon de se faire de l'argent. Et puis c'est l'évolution. C'est pour moi, c'est pas, ça me choque pas, c'est pas choquant pour moi ouais pareil parfait, parfait, parfait.

Speaker 1:

Merci d'avoir joué à ce jeu. Normalement, si je m'en fous, je m'en fous pas. Au final, on s'en foutait de rien. Mais c'est pas grave, c'est bien, on a bien discuté. On va aller vers la troisième partie, la dernière, et c'est les 101 questions. Donc, je vais laisser Do parler de tout ça, je vais laisser.

Speaker 2:

Do parler de tout ça.

Speaker 3:

Yes, Bon Julie, je vais te poser 10 questions. Ok Et puis tu essaies de répondre le plus rapidement possible sans réfléchir.

Speaker 2:

Ok, tac, au tac ça va être inhabituel je te pose la question, tu réponds ok donc, je vais commencer doucement, attends j'ai une question, je réponds c'est sûr, c'est à dire tout de suite, ça commence déjà à négocier. Ok, non, vas-y. Une question.

Speaker 1:

Je réponds je peux, c'est sûr. c'est-à-dire tout de suite Ça. comment? c'est déjà négocié ça?

Speaker 2:

Ok, vas-y.

Speaker 3:

Regarde, on recommence. C'est une question simple, as-tu déjà crié sur ton ordi quand il buguait?

Speaker 2:

Oui. Voilà, tu vois, c'est pas difficile, Ah je peux répondre Ah oui, ok, mais je n'ai pas besoin de Ah oui, ce que je veux dire. Je n'ai pas besoin de m'expliquer, je réponds juste une phrase.

Speaker 3:

Ouais, ouais, exactement Ouais. tu n'as pas besoin de développer.

Speaker 1:

Après, si tu dis une dinguerie, on va revenir sur ta dinguerie, mais sinon Ah, ça fait trop flipper.

Speaker 3:

Ok, allez, let's go. Ok Penses-tu que ton téléphone? Oui, je pense.

Speaker 2:

On va revenir sur certaines réponses Là ça commence bien.

Speaker 3:

On va revenir sur certaines réponses, parce que là ça commence bien. As-tu déjà demandé à une IA d'écrire un poème?

Speaker 2:

Non.

Speaker 3:

As-tu déjà googlé ton prénom, par curiosité?

Speaker 2:

Tous les jours.

Speaker 3:

Waouh, est-ce que tu accepterais de te faire réveiller par un robot tous les matins?

Speaker 2:

C'est pas ce qu'on fait avec le réveil.

Speaker 1:

Non, Elle est à côté. Qu'on a dit.

Speaker 2:

Ok non.

Speaker 3:

Elle réfléchit là, Elle réfléchit, elle réfléchit. Julie t'es là.

Speaker 2:

Non, non, non, ok, non, non, non.

Speaker 3:

Non, non, d'accord. Tu t'es déjà pris en selfie sans t'en rendre compte.

Speaker 2:

Oui.

Speaker 3:

As-tu déjà envoyé un message que tu regrettes à cause du correcteur automatique?

Speaker 1:

Oui.

Speaker 3:

Penses-tu que ton frigo pourrait devenir plus intelligent que toi un jour?

Speaker 2:

Non.

Speaker 3:

As-tu déjà eu peur qu'une pub lise dans tes pensées?

Speaker 2:

Qu'une quoi.

Speaker 3:

Une pub. lise dans tes pensées Non. D'accord. Si tu pouvais télécharger des compétences directement dans ton cerveau, est-ce que tu le ferais?

Speaker 2:

Non.

Speaker 3:

OK, voilà, merci. Merci beaucoup, mais on va revenir quand même sur certaines réponses. Ah ouais, comment ça. La deuxième question, donc, je la redis pour les auditeurs Penses-tu que ton téléphone te connaît mieux que tes amis? Donc, tu as répondu oui et on aimerait savoir pourquoi.

Speaker 1:

Ouais pourquoi.

Speaker 2:

Non, mais quand je dis Non, mais c'est vrai que j'ai répondu vite, tu vois. Mais je pense qu'en fait rapido avec l'IA, avec ChatGPT, à un moment, quand je lui dis de faire mon profil, parce que des fois, les gens n'arrivent pas à trop me cerner, même mes amis, des gens que je connais depuis 20 ans, il y a des choses qu'ils n'arrivent pas à discerner. Puis, en fait, ça m'a fait peur, que je rencontre, que je connais depuis des années, n'ont pas perçu. Donc, c'est ça, mais après, oui et non, en fait, parce que, dans le sens connaître, il connaît, parce que je lui donne, en fait, j'arrive pas à y répondre. Je sais que j'ai répondu non, mais je sais pas si j'arrive pas enfin, non, t'as répondu oui, ah oui, j'ai répondu oui, mais mais connaître comment?

Speaker 2:

connaître cître, c'est un verbe qui veut dire plein de choses.

Speaker 1:

Elle est en train de philosopher. Non, mais regarde, tu l'as dit dans ton explication, c'est que tu lui donnes. Mais est-ce que les gens qui te connaissent depuis 20 ans, tu leur as forcément montré certaines facettes de toi?

Speaker 2:

Oui, je leur ai montré, mais ils n'ont pas compris. En fait, c'est ça le truc Ils n'ont pas réussi à percer, je ne sais pas. Ok, le fait de répondre ça, vous nourrissez les gars, parce qu'ils vont comprendre que Julie, on peut la voir.

Speaker 1:

Je pense qu'ils t'ont déjà eu Tu as donné un nom.

Speaker 2:

Tout le monde donne des noms des gens qui ont une voiture.

Speaker 3:

non, franchement, je suis pas d'accord avec toi. C'est vrai que pour certaines choses, oui, tu vas donner un nom amical pour certaines choses, mais quand même donner un nom à ton IA choses, mais quand même donner un nom à ton IA, je trouve que c'est.

Speaker 2:

Nous-mêmes quand on utilise l'IA imposée.

Speaker 1:

Vous savez, vous avez iPhone quand vous l'appelez le nom est Ouais, c'est ça, ouais, mais ça c'est Ouais, mais ça l'a appelé enfin tu vois, c'est un nom que Apple a donné.

Speaker 3:

C'est ça exactement. Ce n'est pas nous qui l'avons appelé.

Speaker 1:

Tu comprends ce que je veux dire, bref. Non, mais après il n'y a pas de Moi, je ne suis pas en train de te?

Speaker 2:

Non, je sais Aucun jugement.

Speaker 3:

Non aucun jugement.

Speaker 2:

Mais moi la question, aussi la question qu'il t'a posée pour voir, parce qu'en fait, des fois, quand j'écris des articles ou quand je contacte des des relationnistes, ou quand je veux avoir des accréditations médias, je veux voir en fait qu'est-ce qui est dit.

Speaker 3:

En fait, si eux ils tapent mon nom à chaque jour.

Speaker 2:

Qu'est-ce qui ressort?

Speaker 3:

Oui, c'est par rapport à ton métier, en fait. Oui, vraiment, à chaque fois, qu'est-ce qui ressort? pour être honnête avec toi, moi j'ai déjà tapé mon nom sur internet. Bon, pas tous les jours, mais j'ai déjà tapé mon nom, mon prénom, sur internet. même toi t'as dit, je pense que tu l'as déjà fait.

Speaker 1:

Non, je l'ai déjà fait, mais pas chaque jour oui, pas chaque jour, mais après elle.

Speaker 3:

Elle est journaliste, donc c'est un peu normal ouais, j'avoue, c'est vrai.

Speaker 1:

En tout cas, merci d'avoir joué le jeu.

Speaker 2:

Merci, je n'ai rien vous m'avez piégé avec la question des amis. Les gens qui vont m'écouter vont dire ah, ouais non même pas on t'a pas piégé.

Speaker 1:

C'est très cool. Merci d'avoir joué le jeu. Merci encore d'avoir donné ton temps pour l'émission merci vraiment merci de m'avoir invité, est-ce? que tu auras un mot de fin.

Speaker 3:

Dis-moi moi non, c'est pas. Est-ce que tu auras un mot de fin? on lui laisse le mot de la fin. On laisse toujours le mot de la fin à nos invités merci beaucoup de m'avoir invité.

Speaker 2:

Franchement, j'ai vraiment aimé la conversation, et même moi, en fait. En parlant, je me rends compte que je peux être victime de l'intelligence artificielle. Et un conseil à donner à tout le monde l'intelligence artificielle ne va jamais remplacer l'intelligence humaine et surtout les vraies connexions. Moi, je préfère les connexions humaines quand même qu'artificielles. Donc, ce n'est pas la fin du monde, on va tous en sortir.

Speaker 1:

C'est cheap. Merci, c on va tous en sortir. C'est cheap. Merci, c'était très, très bonne fin. Merci encore à tous et, comme d'habitude, n'hésitez pas à partager, commenter et laissez nous savoir ce que vous avez pensé de l'épisode. À la prochaine ciao, ciao yep.

Speaker 3:

The Netter Show Sous-titrage Société Radio-Canada.

People on this episode

Podcasts we love

Check out these other fine podcasts recommended by us, not an algorithm.

The Neter Show Artwork

The Neter Show

Donald & Teddy