Secondo quanto riferito, OpenAI ha avvertito Microsoft di muoversi lentamente nell’integrazione di GPT-4 nel suo motore di ricerca Bing per evitare le risposte imprecise e imprevedibili con cui è stato lanciato. Il Wall Street Journal riporta che il team di OpenAI ha avvertito dei rischi negativi di lanciare troppo presto un chatbot basato su una versione inedita di GPT-4.
Microsoft è andata avanti, nonostante gli avvertimenti secondo cui potrebbe volerci del tempo per ridurre al minimo le risposte imprecise e strane. Alcuni giorni dopo il lancio di Bing Chat a febbraio, gli utenti hanno scoperto che il chatbot era imprevedibile e poteva insultare gli utenti, mentire loro, tenere il broncio, illuminare le persone e persino affermare di identificare i suoi nemici.