Política de Inteligência Artificial da Universidade Federal do Maranhão – UFMA

Órgão: Universidade Federal do Maranhão

Status: Encerrada

Abertura: 03/06/2025

Encerramento: 03/07/2025

Contribuições recebidas: 16

Responsável pela consulta: Diretoria de Inteligência Artificial - STI

Contato: rodrigo.savio@ufma.br

Resumo

A Universidade Federal do Maranhão (UFMA) apresenta sua Política de Inteligência Artificial (PIA), uma iniciativa estratégica para orientar o desenvolvimento, implementação e uso responsável da IA na instituição, visando aprimorar a gestão universitária, otimizar processos administrativos, acadêmicos e de atendimento, além de educar a comunidade acadêmica sobre os desafios éticos e sociais dessa tecnologia.

A política aborda diretrizes para o desenvolvimento de soluções com IA; uso responsável das informações geradas por IA com supervisão humana; processo avaliativo de sistemas incluindo classificação de riscos e participação da comunidade acadêmica; e questões como construção de parcerias e transferência tecnológica. Com isso, a política visa posicionar a UFMA como referência na aplicação ética da inteligência artificial no ensino superior.

Esta política também propõe uma estrutura de governança composta por quatro instâncias: Comitê de Governança, Integridade e Transparência, Comissão de Inteligência Artificial, Núcleo Estratégico de IA, e Unidade de Tecnologia da Informação, cada qual desempenhando um papel bem definido e complementar, desde a formulação estratégica até a execução técnica. A atuação conjunta e coordenada dessas instâncias visa garantir a implementação da política da melhor maneira possível, assegurando eficiência, transparência e conformidade com os princípios éticos estabelecidos.

Ressalta-se que a referida política ainda será submetida aos demais procedimentos regulares legais de tramitação e aprovação pelos setores competentes da Instituição. Nesses termos, e considerando a relevância desta temática, disponibilizamos publicamente o texto-base da política para que todos(as) os(as) docentes e servidores(as) da UFMA e a comunidade em geral possam contribuir com sugestões para o seu aperfeiçoamento.

Atenciosamente,

 Diretoria de Inteligência Artificial

Superintendência de Tecnologia da Informação

Universidade Federal do Maranhão



Conteúdo

- Clique no balão ou no parágrafo que deseja contribuir -

Contribuir em:
Realize o login para contribuir e ver as contribuições
Envie sua contribuição
Informe o título da contribuição
Informe o resumo da contribuição (até 2000 caracteres)
Escolha o arquivo da contribuição. Somente PDF.
 
Contribuições recebidas
1

PORTARIA GR Nº XXX/20XX-MR, XX DE XXXXX DE 20XX.

2

 [MINUTA]

3

Aprova a Política de Inteligência Artificial da Universidade Federal do Maranhão - UFMA.

4

O REITOR DA UNIVERSIDADE FEDERAL DO MARANHÃO, no uso de suas atribuições legais, estatutárias e regimentais,

5

Considerando o Decreto nº 9.203, de 22 de novembro de 2017, que dispõe sobre a política de governança da administração pública federal direta, autárquica e fundacional;

6

Considerando a Lei nº 13.709, de 14 de agosto de 2018, que dispõe sobre a proteção de dados Pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet);

7

Considerando a Lei nº 12.527, de 18 de novembro de 2011 que regula o acesso a informações previsto no inciso XXXIII do art. 5o, no inciso II do § 3o do art. 37 e no § 2o do art. 216 da Constituição Federal; e dá outras providências.

8

Considerando o Decreto nº 7.724, de 16 de maio de 2012 que regulamenta a Lei nº 12.527, de 18 de novembro de 2011, que dispõe sobre o acesso a informações;

9

Considerando o Decreto nº 8.777, de 11 de maio de 2016 que institui a Política de Dados Abertos do Poder Executivo Federal;

10

Considerando o Plano Diretor de Tecnologia da Informação e Comunicação - PDTIC (07/2022 a 06/2027) da UFMA que tem como finalidade definir o planejamento das ações de TIC alinhadas aos objetivos institucionais da UFMA;

11

Considerando a Política de Segurança da Informação e Comunicação (PoSIC) da UFMA, que estabelece objetivos, princípios, diretrizes gerais, normas, competências, penalidades e política de atualização das ações de segurança da informação nas áreas de competência previstas na Resolução nº 361/2021 - CONSUN, de forma a assegurar a disponibilidade, a integridade, a confidencialidade e a autenticidade da informação da UFMA;

12

Considerando a importância de estabelecer a Política de Inteligência Artificial no âmbito da Universidade Federal do Maranhão;

13

Considerando o que consta no processo administrativo nº 23115.XXXXX/XXXX-XX.

14

RESOLVE:

15

Art. 1º. Instituir a Política de Inteligência Artificial (PIA) da Universidade Federal do Maranhão - UFMA, nos termos do Anexo 1, parte integrante desta Portaria.

16

Art. 2º. A PIA deverá ser revisada sempre que houver necessidade de adequações às políticas institucionais.

17

Parágrafo único. Fica o Escritório de Governança de Dados e da Informação responsável pela propositura ao Pleno do Comitê de Governança, Integridade e Transparência (CGIT) das eventuais alterações futuras ao texto desta Política.

18

Art. 3º. Esta Portaria entra em vigor a partir da data de sua publicação.

19

São Luís, xx de xxxxxxx de 20xx.

20

Fernando Carvalho Silva

21

REITOR

22

ANEXO 1 DA PORTARIAGR Nº XXX/20XX-MR, DE XX DE XXXX DE XXXX.

23

POLÍTICA DE INTELIGÊNCIA ARTIFICIAL DA UNIVERSIDADE FEDERAL DO MARANHÃO

24

CAPÍTULO I

25

DAS DISPOSIÇÕES PRELIMINARES

26

Art. 1º A Política de Inteligência Artificial (PIA) da Universidade Federal do Maranhão (UFMA) estabelece escopo, princípios, diretrizes, competências e responsabilidades, além de uma estrutura de governança que orienta o desenvolvimento, a implementação e o uso da IA na instituição.

27

Art. 2º A PIA tem por escopo direcionar as atividades de desenvolvimento e uso da IA no âmbito da UFMA.

28

§ 1º A IA deve ser usada de forma segura, ética e responsável visando sempre o interesse público.

29

§ 2 Esta política se destina a todos os usuários que estejam no contexto da UFMA e que utilizem IA ou construam soluções usando IA.

30

CAPÍTULO II

31

DAS DEFINIÇÕES

32

Art. 3º Para os fins da PIA, considera-se:

33

I - inteligência artificial - IA: tecnologia digital que permite a criação de sistemas capazes de executar tarefas que normalmente exigiriam inteligência humana, tais como aprendizado, inferência, percepção, compreensão de linguagem e apoio à tomada de decisões, com diferentes níveis de autonomia.

34

II - sistema de IA: sistema baseado em algoritmo, desenvolvido para atuar com diferentes níveis de autonomia, que pode apresentar adaptabilidade após sua implementação, produzindo inferências, a partir dos dados que recebe, para atingir objetivos explícitos ou implícitos, gerando resultados como previsões, conteúdos, recomendações ou decisões.

35

III - inteligência artificial generativa (IA generativa ou IAG): sistema de IA projetado especificamente para gerar ou modificar, de forma significativa e com diferentes níveis de autonomia, texto, imagens, áudio, vídeo ou código de software, além dos modelos estatísticos e de aprendizado a partir dos dados treinados;

36

IV - governança de IA: estrutura de decisão criada com base em normas e procedimentos que orientam o planejamento, a gestão e o controle dos sistemas de IA na UFMA, por meio da qual definem-se os papéis e responsabilidades dos agentes envolvidos em todo o ciclo de vida desses sistemas, garantindo o alinhamento com princípios éticos de IA, legais e aos objetivos estratégicos da UFMA;

37

V - ciclo de vida de sistemas de IA: conjunto de fases, não necessariamente sequenciais, que compõem o desenvolvimento e a gestão de sistemas de IA, incluindo as etapas de planejamento e design, coleta e processamento de dados, construção do modelo, verificação e validação, implantação, operação e monitoramento.

38

VI - agente de IA: sistema de IA projetado para interagir com o ambiente, coletar dados e realizar tarefas de forma autônoma e sem intervenção humana para atingir metas;

39

VII - alucinação: conteúdo impreciso ou falso gerado por modelo de IA apresentado como verdadeiro com aparente confiança, sem intenção enganosa;

40

VIII - viés: tendência de um sistema de IA em produzir respostas ou resultados que favorecem certos grupos, perspectivas ou características, em detrimento de outros, resultando em desigualdades ou distorções na tomada de decisões e na geração de informações;

41

IX - unidade funcional: estrutura organizacional com funções específicas e relativa autonomia que compõe o sistema universitário, sendo responsável por diferentes aspectos da gestão, ensino, pesquisa e extensão, operando de forma coordenada para cumprir a missão institucional.

42

X - avaliação preliminar: processo de avaliação de um sistema de IA antes de sua utilização ou entrada em produção, com o objetivo de classificar seu grau de risco e atender às obrigações estabelecidas nesta Política;

43

XI - avaliação contínua de impacto:  monitoramento diuturno de um sistema de IA e seus impactos sobre os direitos fundamentais, com a identificação de medidas preventivas, mitigadoras de danos e de maximização dos impactos positivos, sem a violação da propriedade industrial e intelectual da solução de IA utilizada;

44

XII - unidade de tecnologia da informação: unidade da UFMA responsável pela gestão da tecnologia da informação.

45

CAPÍTULO III

46

DOS OBJETIVOS E PRINCÍPIOS

47

Seção I

48

Dos Objetivos

49

Art. 4º São objetivos da PIA:

50

I - promover a adoção segura e responsável da tecnologia de IA na UFMA;
            II - direcionar as atividades de desenvolvimento, implementação e uso dessa tecnologia observando o interesse público;

51

III - garantir a preservação de dados e direitos pessoais e institucionais de forma ética, segura, transparente, consistente, íntegra e relevante;

52

IV - motivar o uso da IA para aprimorar a gestão universitária, otimizando processos administrativos, acadêmicos e de atendimento;

53

V - direcionar a educação da comunidade acadêmica sobre os desafios éticos e sociais da IA, incentivando o debate e a reflexão crítica;
            VI - estimular a tomada de decisões por meio de dados e a construção de parcerias estratégicas;

54

VII - orientar o desenvolvimento de sistemas de IA para auxiliar na análise de dados e na tomada de decisões estratégicas em diversas áreas da universidade.

55

Seção II

56

Dos Princípios

57

Art. 5º Os fundamentos desta Política são baseados nos seguintes princípios:

58

I - participação e supervisão humana: deve haver participação e supervisão de pessoas ativamente em todas as etapas do ciclo de vida dos sistemas de IA;

59

II - decisões rastreáveis: durante o ciclo de vida dos sistemas de IA, as decisões precisam ser rastreáveis para garantir a prestação de contas e a atribuição clara de responsabilidades;

60

III - comunicação clara e transparente: os processos que utilizam IA devem ser transparentes, com capacidades e objetivos dos sistemas claramente justificáveis e comunicados a todos os indivíduos afetados;

61

IV - gestão preventiva de riscos: prevenção, precaução e mitigação de riscos sistêmicos que possam surgir de usos ou efeitos não esperados das tecnologias de IA.

62

V - alinhamento estratégico: os sistemas devem estar alinhados aos pilares fundamentais de governança, sustentabilidade e inovação;

63

VI - robustez e segurança: os sistemas de IA precisam ser robustos e seguros, capazes de resistir a ataques, erros e falhas inesperadas, e de operar de forma confiável em diferentes condições;

64

VII - privacidade e proteção de dados: os sistemas de IA devem ser desenvolvidos e utilizados em conformidade com as leis de proteção de dados, garantindo a coleta, o uso e o armazenamento seguros e transparentes das informações pessoais, com o consentimento adequado dos indivíduos;

65

VIII - justiça e não discriminação: os sistemas de IA devem ser projetados e implementados de forma a evitar preconceitos e discriminação, tratando todos os indivíduos de forma justa e equitativa;

66

IX - beneficência e não maleficência: a IA deve ser desenvolvida e utilizada para promover o bem-estar humano e social, evitando causar danos ou prejuízos. Isso implica em avaliar o impacto potencial dos sistemas de IA na sociedade e nas pessoas, priorizando aplicações que contribuam positivamente e mitigando os riscos de efeitos adversos;

67

X - responsabilidade e prestação de contas: deve haver mecanismos claros para a responsabilidade e prestação de contas em caso de falhas ou danos causados por sistemas de IA. Isso inclui a definição de quem é responsável pelo projeto, desenvolvimento, implantação e operação da IA, garantindo que as responsabilidades sejam atribuídas de forma clara e que haja um processo para reparação;

68

XI - sustentabilidade ambiental e social: o desenvolvimento e uso da IA devem considerar seu impacto ambiental, buscando a eficiência energética e a redução da pegada de carbono. Além disso, a IA deve contribuir para a sustentabilidade social, promovendo a inclusão, o acesso equitativo e o desenvolvimento de soluções para desafios sociais, sem exacerbar desigualdades; e.

69

XII - acessibilidade: os sistemas de IA devem ser projetados para serem acessíveis ao maior número de pessoas possível, incluindo indivíduos com deficiência.

70

CAPÍTULO IV

71

DAS DIRETRIZES

72

Seção I

73

Das Diretrizes Gerais de Uso da Inteligência Artificial

74

Art. 6º São diretrizes gerais de uso da IA:

75

I - utilização transparente, ética e segura com foco no interesse público;

76

II - promoção da qualidade e da eficiência das entregas  institucionais;

77

III - Apoio qualificado à tomada de decisão;

78

IV - Melhoria contínua da experiência da comunidade universitária e partes interessadas no relacionamento com a UFMA;

79

V - incentivo ao desenvolvimento contínuo do saber dos participantes envolvidos no ciclo de vida dos sistemas de IA;

80

VI - observância das melhores práticas de privacidade e proteção de dados pessoais no desenvolvimento e na aplicação de IA; e

81

VII - monitoramento contínuo dos resultados produzidos pelos sistemas de IA.

82

Seção II

83

Das Diretrizes de Desenvolvimento de Sistemas de Inteligência Artificial

84

Art. 7º No desenvolvimento de soluções de tecnologia da informação e comunicação, departamentais ou corporativas, com incorporação de recursos de IA, serão aplicadas, no que couber, as definições previstas em normativos específicos sobre desenvolvimento de soluções departamentais e sobre Governança de Tecnologia da Informação e Comunicação.

85

Art. 8º O desenvolvimento de sistemas de IA deverá ser orientado de acordo com os seguintes critérios, sem prejuízo de outros a serem estabelecidos pela Comissão de Inteligência Artificial :

86

I - desenvolvimento de sistemas de IA escaláveis e reutilizáveis;

87

II - reaproveitamento e reuso de produtos desenvolvidos na UFMA juntamente a unidade de tecnologia da informação;

88

III - uso de algoritmos de IA de terceiros somente após validação e autorização pela unidade de tecnologia da informação;

89

IV - compartilhamento de produtos de IA desenvolvidos para reaproveitamento e reuso no âmbito da UFMA;

90

V - catalogação e manutenção atualizada da documentação sobre sistemas de IA;

91

VI - disponibilização dos componentes desenvolvidos, em ambiente mantido pela Unidade de Tecnologia da Informação, para fins de catalogação e reuso; e

92

VII - adoção de providências para garantir a qualidade e atualidade dos dados de origem para desenvolvimento e uso em sistemas de IA no contexto da unidade funcional.

93

Seção III

94

Das Diretrizes do Uso das Informações Geradas por Inteligência Artificial

95

Art. 9º São diretrizes do uso das informações geradas por IA:

96

I - o uso de sistemas de IA deverá observar os princípios constitucionais da legalidade, impessoalidade, moralidade, publicidade e eficiência e estar em conformidade com as políticas e normas internas ou externas aplicáveis, bem como com todos os normativos que regem as diversas atividades da UFMA, persistindo a responsabilidade do autor sobre qualquer informação que tenha produzido.

97

II - o usuário de sistema de IA deverá realizar análise crítica das informações geradas para evitar o uso de conteúdo que seja inapropriado, discriminatório, incorreto devido ao fenômeno da alucinação ou de viés, ou ainda prejudicial aos servidores ou cidadãos.

98

III - o uso de informações produzidas por IA, para tomada de decisões, deverá ser amparado por supervisão humana.

99

IV - o fornecimento de informações diretamente ao público externo, a partir de sistema de IA, deverá ser monitorado periodicamente de forma a alcançar a melhoria contínua da qualidade de seu resultado.

100

V - É vedado o uso de sistemas de IA, não avaliados e autorizados pela Comissão de Inteligência Artificial, com dados sob proteção legal, infralegal ou por acordos que a UFMA seja parte, a exemplo de informações protegidas por lei, informações pessoais de servidores ou cidadãos, informações protegidas por direitos autorais ou que façam parte de acordo de confidencialidade ou de não-divulgação.

101

VI - a autorização de acesso a sistemas de IA e a dados sob tutela da UFMA, no âmbito interno da UFMA, após cumpridos os requisitos exigidos para cada situação de acesso, será restrita ao desempenho das funções do usuário (servidor, terceirizado ou estagiário), não sendo admissível o uso de tais recursos para fins adversos.

102

VII - é proibida a utilização de sistemas de IA para a produção ou manipulação de informações e documentos considerados imprescindíveis à segurança da sociedade ou do Estado e, portanto, classificados como ultrassecretos, secretos ou reservados, conforme disposto no art. 23 da Lei nº 12.527, de 18 de novembro de 2011 - Lei de Acesso à Informação - LAI, regulamentado pelo Decreto nº 7.845, de 14 de novembro de 2012.

103

VIII - os sistemas de IA ou sistemas que possuam agentes de IA e que interajam com público interno ou externo deverão possuir comunicação clara sobre a existência desses recursos para interação com usuário.

104

Parágrafo único. A eventual geração de conteúdo conforme descrito no inciso II do caput deverá ser imediatamente comunicada à Comissão de Inteligência Artificial ou à Unidade de Tecnologia da Informação.

105

Seção IV

106

Das Diretrizes do Processo Avaliativo das Soluções de Inteligência Artificial

107

Art. 10. As soluções que utilizam técnicas de inteligência artificial devem ser avaliadas com a finalidade de definir o seu grau de risco, baseando-se na categorização e nos critérios previstos nesta Seção e no Anexo 2 (Classificação de Riscos), com base em fatores como o potencial impacto nos direitos fundamentais, a complexidade do modelo, a sustentabilidade financeira, os usos pretendidos e potenciais e a quantidade de dados sensíveis utilizados.

108

§ 1º A avaliação deverá ser realizada pela Unidade de Tecnologia da Informação ou contratante da solução, preferencialmente durante o período de testes e homologação ou, no caso de aplicações de baixo risco, no início da entrada em produção interna da solução de IA, de acordo com diretrizes claras e critérios objetivos que garantam uniformidade na avaliação de risco.

109

§ 2º O Comitê de Governança, Integridade e Transparência poderá determinar, de forma justificada, a reclassificação do grau de risco de determinada solução, bem como a realização de avaliação contínua de impacto, mediante provocação fundamentada.

110

Art. 11. Consideram-se de alto ou baixo risco, conforme o caso, as soluções que utilizem técnicas de inteligência artificial, desenvolvidas e utilizadas para as finalidades e contextos descritos no Anexo de Classificação de Riscos desta Resolução.

111

§ 1º As soluções de alto risco deverão ser submetidas a processos regulares de auditoria e monitoramento contínuo para supervisionar seu uso e mitigar potenciais riscos aos direitos fundamentais, à privacidade e à justiça.

112

§ 2º A categorização disposta no Anexo de Classificação de Riscos para soluções de alto risco será revista periodicamente, pelo Comitê de Governança, Integridade e Transparência, para assegurar que a classificação de contextos de alto risco permaneça atualizada e continue adequada às exigências legais e éticas.

113

§ 3º As soluções de baixo risco deverão ser monitoradas e revisadas periodicamente, para assegurar que permaneçam dentro dos parâmetros de baixo risco e que eventuais mudanças tecnológicas ou contextuais não alterem essa categorização.

114

Art. 12. A Unidade de Tecnologia da Informação ou contratante deverá promover avaliação contínua de impacto da solução classificada na avaliação como de alto risco, nos termos do art. 10º desta Resolução.

115

§ 1º A avaliação contínua de impacto consistirá em processo contínuo e executado conforme as diretrizes técnicas e os requisitos formulados previamente pelo Comitê de Governança, Integridade e Transparência, incluindo auditorias regulares, monitoramento contínuo, revisões periódicas e a adoção de ações corretivas quando necessário.

116

§ 2º A elaboração e acompanhamento da avaliação contínua de impacto deve, sempre que possível, incluir a participação da comunidade acadêmica, ainda que de maneira simplificada.

117

§ 3º As conclusões da avaliação de impacto, incluindo eventuais ações corretivas adotadas, serão documentadas por meio de relatórios claros e acessíveis, de forma a permitir o entendimento pela comunidade acadêmica e público geral.

118

Seção V

119

Das Diretrizes para Construção de Parcerias e Transferência tecnológica

120

Art. 13. A UFMA poderá estabelecer parcerias para desenvolvimento, implementação e aprimoramento de soluções de IA, observados as seguintes diretrizes:

121

I - toda parceria deve prever contrapartida que pode ser financeira, técnica, de capacitação ou de compartilhamento de recursos;

122

II - o objeto da parceria deve estar alinhado com o Plano de Desenvolvimento Institucional da UFMA;

123

III - deve haver benefício mútuo comprovado para todas as partes envolvidas;

124

IV - as parcerias devem contribuir para o fortalecimento das competências institucionais em IA;

125

V - os acordos de parceria devem definir claramente responsabilidades, prazos e produtos esperados.

126

Art. 14. A transferência de tecnologias de IA desenvolvidas pela UFMA compreende o compartilhamento integral da solução e a capacitação da instituição parceira, devendo:

127

I - incluir a disponibilização de código-fonte, documentação técnica e manuais operacionais;

128

II - prever ações de capacitação da equipe da instituição parceira por meio de workshops, treinamentos, aulas ou material audiovisual;

129

III - estabelecer cronograma de transferência compatível com a disponibilidade de ambas as partes;

130

IV - garantir suporte técnico durante o período de implementação;

131

V - respeitar os direitos de propriedade intelectual e os marcos regulatórios aplicáveis.

132

CAPÍTULO V

133

DA ESTRUTURA DA GOVERNANÇA DE INTELIGÊNCIA ARTIFICIAL E SUAS COMPETÊNCIAS

134

Art. 15. As estruturas organizacionais que compõem o modelo de governança de IA da UFMA são:

135

I - Comitê de Governança, Integridade e Transparência (CGIT);

136

II - Comissão de Inteligência Artificial (CIA);

137

III - Núcleo Estratégico de Inteligência Artificial (NEIA)

138

IV - Unidade de Tecnologia da Informação

139

§ 1º A composição do CGIT, que trata o inciso I do caput, será definida em seu regimento interno.

140

§ 2º A composição da CIA, que trata o inciso II do caput, será composta por representantes indicados pelas seguintes unidades funcionais:

141

I - Por até 3 servidores da unidade de tecnologia da informação;

142

II - Por até 3 servidores dos centros Acadêmicos;

143

III - Por até 3 servidores das pró-reitorias;  e

144

IV - Por até 3 servidores das superintendências.

145

§ 3º A composição do NEIA, que trata o inciso III do caput, será definida pela CIA de acordo com com a competência do inciso XII do art. 17.

146

§ 4º As estruturas definidas nos incisos II e III do caput serão constituídas por meio de portaria elaborada pelo presidente do CGIT.

147

Art. 16. As competências do Comitê de Governança, Integridade e Transparência são:

148

I - avaliar a implementação das estratégias e políticas relativas à Governança de IA;

149

II - estabelecer prioridades para ações corporativas que envolvam o gerenciamento de recursos de IA;

150

III - aprovar e avaliar estratégias, planos, indicadores e metas da Governança de IA;

151

IV - decidir acerca de eventuais conflitos organizacionais em relação a IA, devendo, nos casos que envolvam dilemas éticos em seus resultados, proceder com consulta prévia à Comissão de Ética da UFMA;

152

V - avaliar a necessidade de atualização das hipóteses de categorização de riscos referidas no art. 10 e dispostas no Anexo de Classificação de Riscos desta Resolução, com base em critérios objetivos e conforme as melhores práticas internacionais.

153

Art. 17. As competências da Comissão de Inteligência Artificial são:

154

I - propor estratégias e políticas relativas à Governança de IA;

155

II - propor e monitorar indicadores e metas relativos à Governança de IA;

156

III - monitorar a implementação das estratégias, políticas, e processos relativos à Governança de IA e reportar ao Comitê de Governança, Integridade e Transparência;

157

IV - acompanhar e monitorar o desenvolvimento de sistemas de IA junto à Unidade de Tecnologia da Informação;

158

V - identificar as necessidades estratégicas envolvendo soluções de tecnologia da informação e comunicação com incorporação de IA e definir planejamento para o seu atendimento;

159

VI - instituir e coordenar o Núcleo Estratégico de Inteligência Artificial;

160

VII - elaborar, em conjunto com o Núcleo Estratégico de Inteligência Artificial, planos para atendimento das necessidades estratégicas com IA;

161

VIII - representar a UFMA em fóruns internos e externos que tratem de temas relacionados a IA ou assimilados;

162

IX - fomentar a transferência de conhecimento e disseminar na UFMA as melhores práticas em gestão, uso e desenvolvimento de sistemas de IA;

163

X - identificar, analisar e avaliar os riscos estratégicos relacionados ao uso de IA;

164

XI - identificar, analisar e avaliar os riscos de projetos corporativos de IA;

165

XII - indicar servidores, titular e substituto, que possuem conhecimento das necessidades da unidade funcional e afinidade com o tema de tecnologia de IA, para fins de participação do Núcleo Estratégico de Inteligência Artificial, exceto se houver justificativa para a não indicação;

166

XIII - submeter todas as propostas normativas, diretrizes e direcionamentos estratégicos de IA ao Comitê de Governança, Integridade e Transparência para aprovação.

167

Art. 18. As competências do Núcleo Estratégico de Inteligência Artificial são:

168

I - identificar, analisar e avaliar riscos relacionados ao uso de sistemas de IA, de abrangência exclusiva da unidade funcional, sob sua responsabilidade;

169

II - informar tempestivamente à unidade responsável pela segurança da informação e proteção de dados pessoais - da UFMA - qualquer evento adverso, confirmado ou sob suspeita, envolvendo sistema de IA;

170

III - realizar a gestão do ciclo de vida de sistemas de IA sob sua competência;

171

IV - participar na elaboração de padrões, diretrizes e planos para atendimento às necessidades estratégicas com IA.

172

Art. 19. As competências da Unidade de Tecnologia da Informação, em consonância com os padrões, políticas e diretrizes aprovados, são:

173

I - definir arquitetura e padrões tecnológicos para execução das atividades de gestão de IA em âmbito institucional;

174

II - participar de processos de desenvolvimento de sistemas estratégicos de IA, com a finalidade de padronização, catalogação, orientação, geração de informação e apoio metodológico;

175

III - gerenciar o processo de catalogação de sistemas de IA;

176

IV - fomentar a reutilização de modelos e sistemas de IA entre as unidades;

177

V - instituir grupo para atuação integrada entre os desenvolvedores de sistemas de IA;

178

VI - promover a prospecção de novas tecnologias ou de procedimentos que visem agregar valor ao ciclo de vida de sistemas de IA na UFMA;

179

VII - contribuir para a disseminação de conhecimento tecnológico e boas práticas relacionadas ao uso e desenvolvimento de sistemas de IA.

180

CAPÍTULO VIII

181

DAS DISPOSIÇÕES FINAIS

182

Art. 20. Instrumentos normativos e direcionamentos estratégicos serão propostos pela Comissão de Inteligência Artificial e aprovada pelo Comitê de Governança, Integridade e Transparência da UFMA, conforme deveres contidos, respectivamente, nos arts. 16, inciso I, e 17, inciso III.

183

Art. 21. A unidade de tecnologia da informação terá o prazo de até 6 (seis) meses, a contar da data de publicação desta Política, para adequar os sistemas de IA desenvolvidos ou em desenvolvimento, aos requisitos estabelecidos no art. 8º.

184

Art. 22. A Comissão de Inteligência Artificial disciplinará, por meio de normativo específico, as etapas de validação e autorização de uso de algoritmos IA de terceiros.

185

Art. 23. As unidades funcionais representadas pelo Núcleo Estratégico de Inteligência Artificial deverão adequar seus processos para adoção, no que for pertinente, dos princípios estabelecidos por esta Instrução Normativa, inclusive no estabelecimento de requisitos aos regulados.

186

Art. 24. A PIA/UFMA, seus atos normativos e procedimentos complementares deverão ser revisados sempre que se fizer necessário, não excedendo o prazo máximo de 2 (dois) anos.

187

Art. 25. Esta Instrução Normativa entra em vigor na data de sua publicação.

188

ANEXO 2 DA PORTARIAGR Nº XXX/20XX-MR, DE XX DE XXXX DE XXXX.

189

CLASSIFICAÇÃO DE RISCOS

190

Consideram-se de alto risco (AR) as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias:

191

AR1 ? formulação de juízos conclusivos sobre a aplicação da norma jurídica e/ou universitária, ou de precedentes, a um conjunto determinado de fatos concretos, inclusive para a quantificação ou qualificação de danos suportados por pessoas ou grupos, em contextos acadêmicos, administrativos, disciplinares ou criminais;

192

AR2 ? reconhecimento e validação facial ou biométrica voltados para o monitoramento de comportamento de indivíduos, salvo quando utilizados para a mera confirmação da identidade de uma pessoa específica ou em ações de segurança pública devidamente justificadas, assegurando-se, sempre, a proteção dos direitos fundamentais e monitoramento contínuo de tais soluções.

193

Consideram-se de baixo risco (BR) as seguintes finalidades e contextos para o desenvolvimento de soluções baseadas em inteligência artificial destinadas a desempenhar ou apoiar o usuário na realização das seguintes atividades acessórias:

194

BR1 - realização de tarefas de apoio à gestão universitária, por meio da coleta de informações de sistemas e de documentos, com o objetivo de classificação e organização de dados e processos, enriquecimento de cadastros, registro e formalização de atos administrativos, sumarização ou síntese de documentos, entre outras finalidades de gestão processual e operacional, desde que supervisionadas por responsável humano;

195

BR2 - reconhecimento de padrões em deliberações, atos administrativos ou desvios relativos à normativas internas, bem como detecção de precedentes institucionais relevantes, observado o caráter complementar da técnica de inteligência artificial, desde que não haja substituição da avaliação humana sobre processos, sendo seu uso destinado ao apoio interno à instituição e à uniformização de procedimentos;

196

BR3 - fornecimento de subsídios para a tomada de decisão por meio de relatórios gerenciais e análises de dados, por meio da integração de fontes de informação pertinentes ou a identificação de tendências em processos, desde que não haja substituição da avaliação humana e que a solução não realize juízos de valor sobre documentos, pessoas ou condutas;

197

BR4 - produção de textos de apoio para facilitar a produção de documentos, desde que a supervisão e a versão final destes sejam realizadas por pessoa responsável;

198

BR5 - aprimoramento ou padronização de uma atividade humana já realizada, desde que seu resultado final não seja alterado substancialmente, ou ainda execução de uma tarefa preparatória para outra, considerada como de alto risco;

199

BR6 - realização de análises estatísticas para embasar políticas e decisões institucionais, sempre com supervisão humana contínua, especialmente para evitar vieses;

200

BR7 - transcrição de áudio e vídeo para o auxílio das atividades no âmbito universitário, com revisão final realizada por pessoa responsável;

201

BR8 - anonimização de dados ou documentos, ou de sua exibição, especialmente para assegurar sua conformidade com as normas de privacidade e proteção de dados.

Participe!

Para participar deve estar logado no portal.

Acessar

Contribuições Recebidas

16 contribuições recebidas
Para ver o teor das contribuições deve estar logado no portal